Bisakah kita memastikan model pembelajaran mesin dapat dipercaya?
togel

Bisakah kita memastikan model pembelajaran mesin dapat dipercaya?

Memastikan model pembelajaran mesin dapat dipercaya bukanlah tugas yang mudah, tetapi ini penting karena penggunaan model ini menjadi umum di seluruh masyarakat, tulis Dr Adrian Byrne.

Bisakah kita memastikan model pembelajaran mesin dapat dipercaya?

Pentingnya memastikan bahwa kecerdasan buatan (AI) dan pembelajaran mesin dapat dipercaya, etis, dan bertanggung jawab menjadi semakin nyata saat dunia bergulat dengan memaksimalkan manfaat teknologi yang semakin canggih ini bagi masyarakat sambil juga meminimalkan potensi bahayanya.

Sementara AI adalah konsep luas mengenai kemampuan komputer untuk mensimulasikan pemikiran dan perilaku manusia, pembelajaran mesin mengacu pada algoritma komputasi yang belajar dari data tanpa pemrograman eksplisit. Sederhananya, pembelajaran mesin memungkinkan sistem untuk mengidentifikasi pola, membuat keputusan, dan meningkatkan diri mereka sendiri melalui pengalaman dan data.

Model pembelajaran mesin, atau algoritme, memberikan dasar untuk sistem pengambilan keputusan otomatis yang membantu bisnis merampingkan operasi dan memangkas biaya. Hal ini menyebabkan ledakan aplikasi di sektor-sektor seperti perawatan kesehatan, kedokteran, pemasaran, keamanan siber dan bahkan keuangan, di mana pembelajaran mesin sekarang digunakan oleh bank untuk menentukan apakah pemohon harus dipertimbangkan untuk mendapatkan pinjaman.

Sementara model-model ini berjanji untuk memberikan dasar masyarakat yang adil dan lebih adil, algoritmanya jauh dari sempurna. Mereka dapat menurun seiring waktu, mendiskriminasi individu dan kelompok dan terbuka untuk pelecehan dan serangan.

Istilah dapat dipercaya, etis, bertanggung jawab, yang begitu sering digunakan sehubungan dengan AI, sekarang harus diperluas untuk mendefinisikan jenis pembelajaran mesin yang siap kita toleransi di masyarakat. Pembelajaran mesin harus merangkum akurasi, keadilan, privasi, dan keamanan, dan tanggung jawab ada pada penjaga, penjaga gerbang, dan pengembang di lapangan untuk memastikan semua terlindungi.

Memastikan model pembelajaran mesin dapat dipercaya bukanlah tugas yang mudah dan tentu saja bukan tugas yang harus ditangani sendiri oleh satu disiplin ilmu. Sekarang diterima secara luas bahwa pendekatan yang lebih holistik diperlukan untuk mempelajari dan mempromosikan kepercayaan dalam AI, dengan masukan dari beragam pakar matematika, filsafat, hukum, psikologi, sosiologi, dan bisnis.

Lokakarya tatap muka dua hari di kota Swiss, Zurich awal bulan ini mempertemukan para peneliti internasional yang bekerja pada keadilan algoritmik. Tujuan dari lokakarya ini, yang saya hadiri, adalah untuk mendorong dialog antara para peneliti ini dalam konteks kerangka hukum dan masyarakat, terutama sehubungan dengan upaya Uni Eropa untuk mempromosikan AI yang etis.

Lokakarya ini membahas berbagai topik yang patut dipertimbangkan sehubungan dengan pembelajaran mesin yang dapat dipercaya.

Kegunaan versus keadilan

Selalu ada trade-off antara kegunaan dari perspektif pembuat keputusan dan keadilan dari perspektif orang yang tunduk pada keputusan itu.

Di satu sisi, pembuat keputusan menetapkan dan memiliki sistem keputusan pembelajaran mesin untuk memajukan tujuan bisnis atau organisasi. Prediksi model pembelajaran mesin digunakan untuk menghilangkan ketidakpastian dengan mengukur utilitas untuk pembuat keputusan. Biasanya, konsep keadilan dan kesetaraan sosial yang lebih luas sering kali bukan merupakan bagian dari perangkat utilitas pembuat keputusan.

Di sisi lain, subjek keputusan diuntungkan atau dirugikan oleh keputusan berdasarkan prediksi model. Sementara subjek keputusan memahami bahwa keputusan tersebut mungkin tidak menguntungkan, mereka setidaknya berharap untuk diperlakukan secara adil dalam prosesnya.

Muncul pertanyaan: sejauh mana ada trade-off antara utilitas pembuat keputusan dan keadilan subjek keputusan?

Model yang berbeda menghasilkan bias yang berbeda

Sistem pembelajaran mesin yang berbeda dapat menghasilkan hasil yang bervariasi. Sistem pendukung keputusan menggunakan model prediksi risiko yang dapat menghasilkan proses seleksi yang menghasilkan hasil yang diskriminatif.

Pasar digital menggunakan model pembelajaran mesin perjodohan, yang mungkin kurang transparan dalam hal bagaimana penjual dicocokkan dengan pembeli. Ruang publik online menggunakan model pembelajaran mesin pencari-rekomendasi, yang dapat menggabungkan bias implisit dalam kaitannya dengan menyarankan konten berdasarkan asumsi yang dibuat tentang pengguna.

Pembelajaran mesin lebih berfokus pada tujuan daripada prosedur, sebuah pendekatan yang lebih memperhatikan pengumpulan data dan meminimalkan kekurangan antara keluaran aktual dan keluaran target.

Menjembatani kesenjangan ini – dikenal sebagai ‘fungsi kerugian’ – biasanya mengarahkan pengembang untuk mengatasi kesalahan prediksi individu dan mengabaikan kesalahan prediksi tingkat kelompok, yang mengarah pada tujuan pembelajaran yang bias.

Bias lebih lanjut dapat diperkenalkan melalui data yang digunakan untuk melatih model pembelajaran mesin.

Pemilihan data yang buruk juga dapat menyebabkan masalah dalam kaitannya dengan representasi yang kurang atau berlebihan dari kelompok tertentu, sementara apa yang dimaksud dengan bias bervariasi dari orang ke orang.

Memang, fitur model ditentukan oleh penilaian manusia sehingga bias ini dapat menghasilkan representasi realitas yang dipelajari mesin yang bias, dan bias ini dapat dimasukkan ke dalam keputusan yang tidak adil yang berdampak pada kehidupan individu dan kelompok.

Misalnya, taksi Uber menggunakan data pengemudi yang terakumulasi untuk menghitung secara real time kemungkinan pengemudi mengambil ongkos lain setelah pengantaran, serta nilai potensial tarif berikutnya dan waktu yang dibutuhkan untuk tiba.

Jenis informasi yang dimasukkan ke dalam model pembelajaran mesin ini pada akhirnya dapat mendiskriminasi penumpang yang berbasis di daerah yang kurang mampu secara ekonomi dibandingkan dengan yang lebih kelas atas.

Tes situasi

Area ketiga dan terakhir melibatkan penyelidikan diskriminasi, yang menjadi faktor dalam informasi sensitif, dan membutuhkan penalaran kontrafaktual untuk pengujian situasi yang berarti.

Contoh yang diberikan di lokakarya terkait dengan seorang akademisi wanita berusia pertengahan 40-an yang melamar untuk promosi dan diabaikan demi rekan pria dengan pendidikan dan pengalaman yang sama. Akademisi perempuan tersebut tidak menerima keputusan panel promosi sebagai keputusan yang adil dan tidak memihak, sehingga melanjutkan untuk mengajukan banding atas keputusan tersebut.

Contoh ini menyoroti upaya yang diperlukan oleh individu yang dirugikan dalam hal mengajukan banding atas keputusan yang ‘tidak jelas’. Ini juga menunjukkan bagaimana individu yang dirugikan harus mengungkapkan informasi sensitif mereka untuk membangun kasus melawan keputusan yang tidak adil.

Sementara mereka memberikan semua energi, data, dan penalaran mereka, dapatkah mereka berhasil membuktikan kasus mereka tanpa memiliki akses ke data dan model pembelajaran mesin yang membantu menghasilkan keputusan?

Diskriminasi adalah ilegal tetapi ambiguitas seputar bagaimana manusia membuat keputusan sering menyulitkan sistem hukum untuk mengetahui apakah ada orang yang secara aktif melakukan diskriminasi. Dari perspektif itu, melibatkan model pembelajaran mesin dalam proses pengambilan keputusan dapat meningkatkan kemampuan kita untuk mendeteksi diskriminasi.

Ini karena proses yang melibatkan algoritme dapat memberikan bentuk transparansi penting yang tidak tersedia. Namun, agar hal ini terjadi, kita harus membuatnya demikian.

Kita harus memastikan bahwa penggunaan model pembelajaran mesin memudahkan untuk memeriksa dan menginterogasi seluruh proses pengambilan keputusan, sehingga memudahkan untuk mengetahui apakah diskriminasi telah terjadi.

Penggunaan algoritme ini harus membuat pertukaran di antara nilai-nilai yang bersaing menjadi lebih transparan. Oleh karena itu, pembelajaran mesin yang dapat dipercaya tidak hanya tentang regulasi tetapi, dilakukan dengan cara yang benar, dapat meningkatkan pengambilan keputusan manusia demi kemajuan kita semua.

Oleh Dr Adrian Byrne

Dr Adrian Byrne adalah Marie Skłodowska-Curie Career-Fit Plus Fellow di CeADAR, pusat AI dan pembelajaran mesin terapan Irlandia.

10 hal yang perlu Anda ketahui langsung ke kotak masuk Anda setiap hari kerja. Mendaftar untuk Ringkasan HarianIntisari dari berita sci-tech penting dari Silicon Republic.

Hasil prediksi hk paling jitu merupakan informasi penting bagi para pemain togel sidney pools. Nomor keluaran sdy pools memegang guna signifikan dikarenakan hasil live draw sdy prize merupakan penentu utama. Dimana taruhan para bettor kalah atau menang terlalu bergantung bersama dengan nomor pengeluaran sdy prize. Sehingga kita merangkum seluruh keluaran sdy pools ke dalam sebuah tabel information sdy 2021 terlengkap untuk para bettor.