Pada tahun 2018, salah satu perusahaan teknologi terbesar di dunia meluncurkan AI yang memanggil restoran dan menyamar sebagai manusia untuk melakukan reservasi. Untuk “membuktikan” itu manusia, perusahaan melatih AI untuk memasukkan “umms” dan “ahhs” ke dalam permintaannya: misalnya, “Kapan saya mau reservasi? Ummm, tolong jam 8 malam.”
Reaksi langsung muncul: jurnalis dan warga keberatan bahwa orang-orang ditipu untuk berpikir bahwa mereka berinteraksi dengan orang lain, bukan robot. Orang merasa dibohongi.
Kisah ini merupakan kisah peringatan dan pengingat: ketika algoritme dan AI semakin tertanam dalam kehidupan manusia, ada juga permintaan yang meningkat untuk transparansi seputar kapan AI digunakan dan untuk apa AI itu digunakan. Sangat mudah untuk memahami dari mana ini berasal. Transparansi adalah elemen penting untuk mendapatkan kepercayaan konsumen dan klien di domain apa pun. Dan dalam hal AI, transparansi tidak hanya tentang memberi tahu orang-orang saat mereka berinteraksi dengan AI, tetapi juga berkomunikasi dengan pemangku kepentingan terkait tentang mengapa solusi AI dipilih, bagaimana solusi itu dirancang dan dikembangkan, atas dasar apa solusi itu diterapkan, bagaimana itu dipantau dan diperbarui, dan kondisi di mana itu dapat dihentikan.
Dilihat dari sudut ini, dan bertentangan dengan asumsi tentang transparansi oleh banyak organisasi, transparansi bukanlah sesuatu yang terjadi pada akhir penerapan model ketika seseorang menanyakannya. Transparansi adalah rantai yang berjalan dari desainer ke pengembang hingga eksekutif yang menyetujui penerapan kepada orang-orang yang terpengaruh dan semua orang di antaranya. Transparansi adalah pemindahan pengetahuan secara sistematis dari satu pemangku kepentingan ke pemangku kepentingan lainnya: pengumpul data bersikap transparan dengan ilmuwan data tentang data apa yang dikumpulkan dan bagaimana data itu dikumpulkan dan, pada gilirannya, ilmuwan data bersikap transparan dengan eksekutif tentang mengapa satu model dipilih daripada yang lain dan langkah-langkah yang diambil untuk mengurangi bias, misalnya.
Ketika perusahaan semakin mengintegrasikan dan menyebarkan AI, mereka harus mempertimbangkan bagaimana menjadi transparan dan proses tambahan apa yang mungkin perlu mereka perkenalkan. Di sinilah perusahaan dapat memulai.
Dampak Transparansi
Sementara tujuan keseluruhan menjadi transparan adalah untuk menimbulkan kepercayaan, setidaknya memiliki empat jenis efek khusus:
Ini mengurangi risiko kesalahan dan penyalahgunaan.
Model AI adalah sistem yang sangat kompleks — mereka dirancang, dikembangkan, dan diterapkan di lingkungan yang kompleks oleh berbagai pemangku kepentingan. Ini berarti bahwa ada banyak ruang untuk kesalahan dan penyalahgunaan. Komunikasi yang buruk antara eksekutif dan tim desain dapat menyebabkan AI dioptimalkan untuk variabel yang salah. Jika tim produk tidak menjelaskan cara menangani keluaran model dengan benar, memperkenalkan AI dapat menjadi kontraproduktif dalam situasi berisiko tinggi.
Pertimbangkan kasus AI yang dirancang untuk membaca sinar-x untuk mencari tumor kanker. Sinar-x yang diberi label AI sebagai “positif” untuk tumor kemudian ditinjau oleh dokter. AI diperkenalkan karena, diperkirakan, dokter dapat melihat 40 x-ray berbendera AI dengan efisiensi lebih besar daripada 100 x-ray berbendera AI.
Sayangnya, ada gangguan komunikasi. Dalam merancang model, para ilmuwan data cukup berpikir bahwa salah menandai x-ray sebagai negatif padahal sebenarnya, x-ray menunjukkan tumor kanker dapat memiliki konsekuensi yang sangat berbahaya dan sehingga mereka menetapkan toleransi yang rendah untuk negatif palsu dan, dengan demikian , toleransi yang tinggi untuk positif palsu. Namun, informasi ini tidak dikomunikasikan kepada ahli radiologi yang menggunakan AI.
Hasilnya adalah ahli radiologi menghabiskan lebih banyak waktu untuk menganalisis 40 x-ray berbendera AI daripada 100 x-ray berbendera. Mereka pikir, AI pasti telah melihat sesuatu yang saya lewatkan, jadi saya akan terus mencari. Seandainya mereka diberi tahu dengan benar – seandainya keputusan desain dibuat transparan bagi pengguna akhir – ahli radiologi mungkin berpikir, Saya benar-benar tidak melihat apa pun di sini dan saya tahu AI terlalu sensitif, jadi saya akan melanjutkan.
Ini mendistribusikan tanggung jawab.
Eksekutif perlu memutuskan apakah model cukup dapat dipercaya untuk diterapkan. Pengguna perlu memutuskan bagaimana menggunakan produk di mana model disematkan. Regulator perlu memutuskan apakah denda harus dikenakan karena desain atau penggunaan yang lalai. Konsumen perlu memutuskan apakah mereka ingin terlibat dengan AI. Tak satu pun dari keputusan ini dapat dibuat jika orang tidak diberi informasi dengan benar, yang berarti bahwa jika terjadi kesalahan, kesalahan akan dipikul oleh mereka yang menyembunyikan informasi penting atau merusak pembagian informasi oleh orang lain.
Misalnya, seorang eksekutif yang menyetujui penggunaan AI terlebih dahulu perlu mengetahui, secara umum, bagaimana model tersebut dirancang. Itu termasuk, misalnya, bagaimana data pelatihan diperoleh, fungsi tujuan apa yang dipilih dan mengapa itu dipilih, dan bagaimana kinerja model terhadap tolok ukur yang relevan. Eksekutif dan pengguna akhir yang tidak diberi pengetahuan yang mereka butuhkan untuk membuat keputusan berdasarkan informasi — termasuk pengetahuan yang tanpanya mereka bahkan tidak tahu ada pertanyaan penting yang tidak mereka tanyakan — tidak dapat dimintai pertanggungjawaban secara wajar.
Kegagalan untuk mengomunikasikan informasi itu, dalam beberapa kasus, merupakan kelalaian tugas. Dalam kasus lain — terutama untuk personel yang lebih junior — kesalahan bukan terletak pada orang yang gagal berkomunikasi tetapi pada orang atau orang-orangnya, terutama para pemimpin, yang gagal menciptakan kondisi di mana komunikasi yang jelas dimungkinkan. Misalnya, seorang manajer produk yang ingin mengontrol semua komunikasi dari grup mereka kepada siapa pun di luar grup mungkin secara tidak sengaja membatasi komunikasi penting karena mereka berfungsi sebagai hambatan komunikasi.
Dengan menjadi transparan dari awal sampai akhir, akuntabilitas yang tulus dapat didistribusikan di antara semua karena mereka diberi pengetahuan yang mereka butuhkan untuk membuat keputusan yang bertanggung jawab.
Ini memungkinkan pengawasan internal dan eksternal.
Model AI dibuat oleh segelintir ilmuwan dan insinyur data, tetapi dampak kreasi mereka bisa sangat besar, baik dalam hal bagaimana hal itu memengaruhi garis bawah dan bagaimana hal itu memengaruhi masyarakat secara keseluruhan. Seperti situasi berisiko tinggi lainnya, pengawasan diperlukan baik untuk menangkap kesalahan yang dibuat oleh teknolog dan untuk menemukan masalah potensial yang mungkin tidak dilatih oleh teknolog, baik itu risiko etika, hukum, atau reputasi. Ada banyak keputusan dalam proses desain dan pengembangan yang tidak boleh dibiarkan (semata-mata) di tangan ilmuwan data.
Namun, pengawasan tidak mungkin dilakukan jika pembuat model tidak secara jelas mengomunikasikan kepada pemangku kepentingan internal dan eksternal keputusan apa yang dibuat dan dasar pengambilannya. Salah satu bank terbesar di dunia, misalnya, baru-baru ini diselidiki oleh regulator atas dugaan algoritme diskriminatif, yang mengharuskan regulator memiliki wawasan tentang bagaimana model itu dirancang, dikembangkan, dan diterapkan. Demikian pula, manajer atau dewan risiko internal tidak dapat memenuhi fungsinya jika produk dan proses yang menghasilkan produk tidak jelas bagi mereka, sehingga meningkatkan risiko bagi perusahaan dan semua orang yang terkena dampak AI.
Ini mengungkapkan rasa hormat kepada orang-orang.
Pelanggan yang menggunakan AI pengambil reservasi merasa telah ditipu. Dalam kasus lain, AI dapat digunakan untuk memanipulasi atau mendorong orang. Misalnya, AI memainkan peran penting dalam penyebaran disinformasi, dorongan, dan gelembung filter.
Pertimbangkan, misalnya, seorang penasihat keuangan yang menyembunyikan keberadaan beberapa peluang investasi dan menekankan potensi keuntungan orang lain karena dia mendapat komisi yang lebih besar ketika dia menjual yang terakhir. Itu buruk bagi klien setidaknya dalam dua cara: pertama, itu mungkin investasi yang buruk, dan kedua, manipulatif dan gagal mengamankan diberitahukan persetujuan klien. Dengan kata lain, penasihat ini gagal untuk cukup menghormati hak kliennya untuk menentukan sendiri investasi apa yang tepat untuk mereka.
Poin yang lebih umum adalah bahwa AI dapat merusak otonomi orang — kemampuan mereka untuk melihat opsi yang tersedia bagi mereka dan memilih di antara mereka tanpa pengaruh atau manipulasi yang tidak semestinya. Sejauh opsi diam-diam didorong dari menu dan opsi lain dipromosikan berulang kali, secara kasar, sejauh mana orang didorong ke dalam kotak alih-alih diberi kemampuan untuk memilih secara bebas. Konsekuensinya adalah transparansi tentang apakah AI digunakan, untuk apa digunakan, dan cara kerjanya menunjukkan rasa hormat terhadap orang dan kemampuan pengambilan keputusan mereka.
Seperti Apa Komunikasi Yang Baik Itu?
Transparansi bukanlah proposisi semua atau tidak sama sekali. Perusahaan harus menemukan keseimbangan yang tepat dalam hal seberapa transparan dengan pemangku kepentingan mana. Misalnya, tidak ada organisasi yang ingin transparan dengan cara yang akan membahayakan kekayaan intelektual mereka, sehingga beberapa orang harus diberi tahu sangat sedikit. Terkait, mungkin masuk akal untuk menjadi sangat transparan dalam beberapa keadaan karena risiko yang parah; misalnya, aplikasi AI yang berisiko tinggi mungkin perlu melampaui dan melampaui tingkat transparansi standar.
Mengidentifikasi semua pemangku kepentingan potensial — baik internal maupun eksternal — adalah tempat yang baik untuk memulai. Tanyakan kepada mereka apa yang perlu mereka ketahui untuk melakukan pekerjaan mereka. Manajer risiko model di bank, misalnya, mungkin memerlukan informasi terkait ambang batas model, sedangkan manajer Sumber Daya Manusia mungkin perlu mengetahui bagaimana variabel input ditimbang dalam menentukan skor “layak wawancara”. Pemangku kepentingan lain mungkin tidak, secara tegas, membutuhkan informasi untuk melakukan pekerjaan mereka tetapi itu akan memudahkan mereka. Itu alasan bagus untuk berbagi informasi. Namun, jika berbagi informasi itu juga menimbulkan risiko yang tidak perlu dalam mengkompromikan IP, mungkin yang terbaik adalah menahan informasi tersebut.
Penuh arti mengapa seseorang membutuhkan penjelasan juga dapat mengungkapkan seberapa tinggi transparansi prioritas bagi setiap pemangku kepentingan. Misalnya, beberapa informasi akan menyenangkan untuk dimiliki tetapi sebenarnya tidak perlu, dan mungkin ada berbagai alasan untuk memberikan atau menahan informasi tambahan tersebut.
Keputusan semacam ini pada akhirnya perlu disistematisasikan dalam kebijakan dan prosedur.
Setelah Anda mengetahui siapa yang membutuhkan apa dan mengapa, maka timbul masalah dalam memberikan penjelasan yang tepat. Seorang chief information officer dapat memahami penjelasan teknis yang, katakanlah, chief executive officer mungkin tidak, apalagi regulator atau konsumen rata-rata. Komunikasi harus disesuaikan dengan audiens mereka, dan audiens ini beragam dalam pengetahuan teknis, tingkat pendidikan, dan bahkan dalam bahasa yang mereka gunakan dan baca. Maka, sangat penting bahwa tim produk AI bekerja dengan pemangku kepentingan untuk menentukan metode komunikasi yang paling jelas, paling efisien, dan termudah, hingga ke detail apakah komunikasi melalui email, Slack, orientasi langsung, atau merpati pos adalah yang paling efektif. .
. . .
Tersirat dalam diskusi kami adalah perbedaan antara transparansi dan kemampuan menjelaskan. AI yang dapat dijelaskan berkaitan dengan bagaimana model AI mengubah input menjadi output; apa aturannya? Mengapa masukan khusus ini mengarah ke keluaran khusus ini? Transparansi adalah tentang segala sesuatu yang terjadi sebelum dan selama produksi dan penerapan model, terlepas dari apakah model tersebut memiliki keluaran yang dapat dijelaskan atau tidak.
AI yang dapat dijelaskan penting atau dapat menjadi penting karena berbagai alasan yang berbeda dari apa yang telah kita bahas di sini. Meskipun demikian, sebagian besar dari apa yang kami katakan juga berlaku untuk AI yang dapat dijelaskan. Lagi pula, dalam beberapa kasus, penting untuk berkomunikasi dengan berbagai pemangku kepentingan tidak hanya apa yang telah dilakukan orang terhadap dan dengan model AI, tetapi juga bagaimana model AI itu sendiri beroperasi. Pada akhirnya, kemampuan menjelaskan dan transparansi sangat penting untuk membangun kepercayaan.
Di website ini, kami menjamin dan tetap memprioritaskan kepuasan para bettor di dalam mendapatkan togel hari ini sidney Salah satunya adalah bersama menyediakan result pengeluaran sdy hari ini tercepat dan terakhir secara berkelanjutan dan pas waktu. Semua update terakhir untuk nomer pengeluaran sidney prize 2021 sanggup kalian menikmati pada jam 14.00 WIB atau jam 2 siang. Dengan memberikan hasil result sdy tercepat maka para bettor tidak wajib ulang menunggu sangat lama.