togel

Mengapa AI Chatbots Seperti ChatGPT, Bard, dan Ernie Bisa Membunuh Kita Semua

Bard, bot pencarian AI generatif Google, gagal dalam debut publiknya. Kesalahannya dangkal, tetapi risiko yang dieksposnya sangat dalam. Sebut saja efek Cliff Clavin. Bagaimana seharusnya kita mengelolanya?

Bard Google menyentuh nada datar

Gernerative-AI-search adalah teknologi panas.

Gempa global ChatGPT

Mesin pencari generatif-AI OpenAI, ChatGPT datang ke pasar lebih dulu. Debutnya mengguncang tanah di bawah Google, yang saat ini menguasai sekitar 93% pasar pencarian online. Ke depan, siapa yang akan membutuhkan istilah pencarian atau kata kunci ketika Anda dapat melakukan percakapan seperti manusia dengan komputer yang seolah-olah tahu apa saja?

Pasar pencarian online senilai $200 miliar kini sedang dimainkan.

Begitu juga masa depan itu sendiri, karena orang-orang berebut untuk memanfaatkan kemungkinan pencarian AI-generatif.

Siswa merayakan berakhirnya pekerjaan rumah: masukkan tugas apa pun ke ChatGPT dan dapatkan jawaban Anda dalam hitungan detik. ChatGPT dapat menulis esai. Itu dapat membuat gambar atau puisi dengan gaya artis yang Anda sebutkan. Itu dapat memeriksa kode komputer Anda untuk kesalahan dan akan, seiring waktu, menulis kode dan mendesain situs web dengan kecanggihan yang semakin meningkat.

Namun, tidak semua orang bersorak. ChaptGPT dilaporkan telah lulus ujian bar dan ujian lisensi medis.

John Henry harus menggerakkan baja melawan bor uap. Pekerja pengetahuan harus bersaing dengan algoritme belajar mandiri.

Kerajaan Google menyerang balik

Salah satu pendukung terbesar ChatGPT adalah Microsoft. Microsoft menginvestasikan $1 miliar dalam OpAI dan akan menggelontorkan miliaran lagi sembari menggabungkan ChatGPT ke dalam Bing, mesin pencari milik Microsoft.

Microsoft mencium bau darah. Tetapi Google dan pesaing China Baidu menyerang balik dengan alat pencarian AI generatif mereka sendiri.

Namun, dalam debut alat pencarian generatif-AI-Google baru-baru ini, Bard, program tersebut dilaporkan membuat kesalahan. Itu salah mengidentifikasi teknologi pertama yang memotret planet di luar tata surya kita.

Kesalahan itu tidak segera terlihat oleh orang awam. Tapi itu bisa dibuktikan. (Counterspin berpendapat sebaliknya.)

Cukuplah untuk mengatakan bahwa dalam masalah ini, investor memberikan suara lebih keras daripada pemirsa American Idol atau Eurovision mana pun: kesalahan yang dirasakan menyebabkan Google kehilangan hampir $100 miliar dalam kapitalisasi pasar.

Kesalahan diduga juga menunjukkan risiko memperlakukan seperti oracle teknologi yang kadang-kadang bertindak seperti Cliff Clavin Bersulang: orang yang mengaku tahu segalanya yang sebenarnya melontarkan omong kosong.

Semua Terlalu Manusiawi: Efek Cliff Clavin

Ironisnya, kelemahan pencarian generatif-AI tetap merupakan kesalahan manusia.

Sampah masuk sampah keluar

Algoritme belajar mandiri mengumpulkan data dalam jumlah besar dalam mirkrodetik. Tapi, masalah sampah masuk — sampah keluar tetap ada.

Salahkan kesalahan manusia. Jika algoritme ini menyerap data yang salah, informasi yang salah, dan opini yang bias, hasilnya akan salah menyatakan, salah mengarahkan, dan menyesatkan.

Dalam berinteraksi dengan chatbot generatif-AI, kami tidak dapat mengatakan bahwa kami tidak berurusan dengan manusia. Namun, dalam memperoleh data, algoritme generatif-AI tidak dapat mengatakan bahwa ia tidak berurusan dengan Cliff Clavin.

Kesalahan nyata Bard adalah konsekuensi kecil — kecuali pada harga saham Google. Tetapi malapetaka dapat muncul dari keputusan kritis manusia yang diinformasikan oleh keluaran AI yang salah.

Di mana sistem AI berkecepatan tinggi berjalan secara mandiri, bencana akan terungkap lebih cepat daripada yang dapat diintervensi manusia.

Rayuan Teknologi yang Mematikan

Risiko yang ditimbulkan oleh ketergantungan berlebihan pada teknologi bukanlah hal baru. Seperti yang dibahas di kolom sebelumnya, Tesla mungkin dapat mengemudi sendiri, tetapi kadang-kadang juga menabrak diri sendiri.

Apa yang mendorong beberapa pemilik Tesla ke kuburan mereka – secara harfiah – adalah daya tarik teknologi self-driving. Tesla mendukung ini dengan pemasaran yang memberi label fitur tersebut, “Autopilot”.

Kemampuan Generatif-AI untuk meniru komunikasi manusia memiliki daya tarik yang sama menggoda — dan berpotensi mematikan. Berinteraksi dengan Chatbot seperti itu sepertinya berbicara dengan orang paling cerdas dan paling berpengetahuan yang pernah hidup.

Tapi itu bukan orang. AI, bagaimanapun, kuat, tetap dibatasi oleh algoritmenya. Itu kurang pemahaman dan, pada akhirnya, ketajaman.

Perlombaan Senjata Penegasan

Efek Cliff Clavin memberi kita pilihan: membangun ketajaman dalam pencarian AI generatif, atau mendisiplinkan diri untuk mengantisipasi keterbatasan teknologi.

Algoritma Lebih Mampu

Yang terbaik dan terpintar akan memilih tantangan — dan penghargaan — untuk membangun AI generatif 2.0 dengan kearifan, atau sesuatu yang mendekati kearifan.

Membuat sketsa 2.0 ini sudah dimulai. Menurut Kevin Buehler, salah satu pendiri praktik Risiko global McKinsey & Company dan Ketua firma penasihat sains data risiko yang dimiliki sepenuhnya oleh McKinsey, Risk Dynamics, “Model AI generatif saat ini berfokus pada pernyataan yang masuk akal secara statistik. Mereka saat ini tidak memeriksa kebenaran seperti yang mungkin dilakukan oleh pemeriksa fakta, atau mencoba memisahkan pernyataan dan pendapat faktual seperti yang terjadi dalam proses pengadilan permusuhan.

Setelah menganalisis keterbatasan model statistik biasa, Buehler dan rekannya mengidentifikasi enam area baru yang perlu dikelola dengan hati-hati untuk mengembangkan pembelajaran mesin dan model kecerdasan buatan yang lebih sesuai untuk tujuan:

  • Interpretabilitas: Mampu mendeskripsikan model dan keluarannya
  • Bias: Memastikan bahwa model secara akurat merepresentasikan data tanpa pola pembelajaran yang dapat memengaruhi kelompok yang berbeda tanpa izin
  • Rekayasa Fitur: Merakit elemen data individu ke dalam fitur yang mendorong model (misalnya, menggunakan rasio utang terhadap pendapatan sebagai fitur dalam model kredit)
  • Hyperparameter: Membuat pilihan tentang desain model (misalnya, jumlah lapisan tersembunyi dalam jaringan saraf)
  • Kesiapan Produksi: Mengantisipasi bagaimana algoritma generatif-AI harus beroperasi dengan sistem yang lebih besar. Misalnya, dapatkah setiap bagian dari sistem menangani laju aliran data yang lain? Akankah pemrosesan tambahan yang diperlukan untuk penegasan membuat harga atau margin rusak?
  • Kalibrasi Model Dinamis: Menyesuaikan pemrosesan dengan cepat untuk mencerminkan informasi baru — kapan hal ini harus terjadi, dan siapa yang harus menentukannya?

Model bahasa dan dialog bisa sangat besar. LaMDA, yang menjadi dasar Bard, dilatih dengan 1,56 triliun kata, dan satu versi terdiri dari 137 miliar parameter model. Akibatnya, bias dan interpretabilitas mewakili perhatian yang sangat menonjol. Tidak ada manusia yang dapat meninjau lebih dari satu triliun kata untuk memastikan tidak ada bias halus. (Paling-paling, seseorang harus mengandalkan model lain untuk melakukannya.) Demikian pula, ketika model yang kompleks memiliki miliaran parameter, akan sangat sulit untuk menginterpretasikan dengan tepat mengapa model tersebut menghasilkan output tertentu.

Manusia Lebih Berhati-hati

Tampaknya tidak bijaksana untuk bertaruh melawan yang terbaik dan terpandai. Tapi paling tidak, upaya mereka membutuhkan taksonomi — seperangkat definisi formal — sehingga orang akan tahu apa yang mereka katakan dan dengar.

Jadi, misalnya, apa yang dimaksud dengan “kearifan” dalam konteks ini? Apakah ini pencarian “kebenaran”? Untuk “validasi”? Jika kita mengandalkan pekerjaan “otoritas” untuk memvalidasi pernyataan atau opini, bagaimana seharusnya algoritme menilai dan menimbang “otoritas”? Ingatlah bahwa survei tahun 1905 terhadap semua fisikawan tentang relativitas waktu akan menghasilkan satu “Ya” – dari seorang pegawai paten Swiss yang tidak dikenal bernama Einstein.

Setidaknya dalam jangka pendek, menghindari potensi penyalahgunaan atau penyalahgunaan potensi generatif-AI berarti manusia harus bertindak lebih hati-hati. Teknologi ini menggoda. Daripada memutuskan pada titik mana algoritme dapat menyebut sesuatu sebagai hitam atau putih, akan lebih aman dan lebih baik untuk memastikan pemahaman manusia tentang nuansa abu-abu yang sedang kita hadapi.

therightwaytowin

Apakah bermain judi sydney keluaran hari ini safe atau tidak, itu terlalu terkait bersama dengan bandar togel online daerah kamu memasang. Pasalnya telah ada banyak sekali bettor yang sukses dan sukses berkat rajin bertaruh di pasaran togel sidney pools. Oleh karena itulah para pembaca sekalian harus pandai di dalam memilah bandar togel online yang terdapat di google atau internet. Mendapatkan keuntungan dikala bermain judi togel sidney cuma sanggup kita menikmati jika kita bertaruh di daerah yang tepat.