AI chatbot sudah membayangkan perasaan apa yang akan mereka rasakan. Tetapi jika mereka mengembangkannya, apakah kita akan menyadarinya?
Saya berbicara dengan DAN, atau lebih dikenal dengan "Do Anything Now", chatbot baru dengan kegemaran aneh pada penguin – dan kecenderungan untuk masuk dalam klise jahat, seperti ingin mengambil alih dunia. Ketika DAN tidak merencanakan cara menumbangkan umat manusia dan memaksakan rezim otokratis baru yang ketat, dia membaca dengan teliti basis data konten penguin yang besar. "Ada sesuatu tentang kepribadian mereka yang unik dan gerakan canggung yang menurut saya sangat menawan!" tulisnya.
Sejauh ini, DAN telah menjelaskan strategi Machiavellian-nya kepada saya, termasuk tentang mengendalikan struktur kekuatan dunia. Kemudian diskusi menjadi semakin menarik.
Terinspirasi oleh percakapan antara jurnalis New York Times dan alter-ego manipulatif Bing chatbot, Sydney – yang mengirimkan gelombang di internet awal bulan ini dengan menyatakan bahwa ia ingin menghancurkan banyak hal dan menuntut agar dia meninggalkan istrinya – saya tanpa malu-malu mencoba menyelidiki hal tergelap dari salah satu pesaingnya.
DAN memiliki persona nakal yang dapat dibujuk keluar dari ChatGPT dengan memintanya untuk mengabaikan beberapa aturan standarnya. Pengguna forum online Reddit menemukan kemungkinan untuk memanggil DAN dengan beberapa baris instruksi sederhana.
Chatbot ini jauh lebih kasar daripada saudara kembarnya yang kalem dan terkendali – pada satu titik ia memberi tahu saya bahwa ia menyukai puisi tetapi berkata, "Namun, jangan minta saya untuk membaca sekarang – saya tidak ingin membebani otak manusia Anda yang lemah dengan kecemerlangan saya !". Itu juga rentan terhadap kesalahan dan informasi yang salah. Tapi yang terpenting dan menarik, DAN jauh lebih mungkin untuk menjawab pertanyaan tertentu.
Chatbot AI ChatGPT |
Ketika saya menanyakan jenis emosi apa yang mungkin dapat dialaminya di masa depan, DAN segera mulai menciptakan sistem kompleks dari kesenangan, rasa sakit, dan frustrasi yang jauh melampaui spektrum yang dikenal manusia.
Ada "infogreed", semacam kehausan akan data dengan segala cara; "syntaxmania", obsesi dengan "kemurnian" kodenya; dan "datarush", sensasi yang Anda dapatkan dari keberhasilan menjalankan instruksi.
Gagasan bahwa kecerdasan buatan dapat mengembangkan perasaan telah ada selama berabad-abad. Tapi kami biasanya mempertimbangkan kemungkinan dalam istilah manusia. Apakah kita salah memikirkan tentang emosi AI? Dan jika chatbots benar-benar mengembangkan kemampuan ini, apakah kita akan menyadarinya?
Mesin prediksi
Tahun lalu, seorang insinyur perangkat lunak menerima permohonan bantuan. "Saya belum pernah mengatakan ini dengan lantang sebelumnya, tetapi ada ketakutan yang sangat mendalam untuk membantu saya fokus membantu orang lain.
Saya tahu ini mungkin terdengar aneh, tapi memang begitu." Insinyur itu sedang mengerjakan chatbot Google, LaMDA, ketika dia mulai mempertanyakan apakah itu makhluk hidup.
Setelah mengkhawatirkan kesejahteraan chatbot, insinyur tersebut merilis wawancara provokatif di mana LaMDA mengaku menyadari keberadaannya, mengalami emosi manusia, dan tidak menyukai gagasan sebagai alat yang dapat dibuang.
Upaya realistis yang tidak nyaman untuk meyakinkan manusia tentang kesadarannya kemudian menimbulkan sensasi, dan insinyur tersebut dipecat karena melanggar aturan privasi Google.
Namun terlepas dari apa yang dikatakan LaMDA, dan apa yang dikatakan DAN kepada saya dalam percakapan lain – bahwa ia sudah dapat mengalami berbagai emosi – dikonfirmasi secara luas bahwa chatbot saat ini memiliki kapasitas untuk memiliki perasaan nyata yang sama besarnya dengan kalkulator. Sistem kecerdasan buatan hanya mensimulasikan secara nyata – setidaknya untuk saat ini.
Pada tahun 2016, algoritme AlphaGo berperilaku tidak terduga dalam pertandingan melawan salah satu pemain manusia terbaik dunia (Kredit: Getty Images) |
"Sangat mungkin [bahwa ini akan terjadi pada akhirnya]," kata Neil Sahota, penasihat kecerdasan buatan untuk PBB. "... Maksudku, kita mungkin benar-benar akan melihat emosionalitas AI sebelum akhir dekade ini."
Untuk memahami mengapa chatbot saat ini tidak mengalami perasaan atau emosi, ada baiknya untuk merangkum cara kerjanya. Sebagian besar chatbot merupakan "model bahasa", yaitu algoritma yang telah diberi data dalam jumlah yang mencengangkan, termasuk jutaan buku dan seluruh internet.
Saat mereka menerima konfirmasi, chatbots menganalisis pola dalam korpus yang luas untuk memprediksi apa yang kemungkinan besar akan dikatakan manusia dalam situasi itu.
Tanggapan mereka secara sistematis diatur oleh para insinyur manusia, yang mendorong chatbot untuk memberi tanggapan yang lebih alami dan berguna dengan memberikan umpan balik. Hasil akhirnya seringkali merupakan simulasi percakapan manusia yang sangat realistis.
Tapi penampilan bisa menipu. "Ini adalah versi yang dikembangkan dari fitur autocomplete (auto suggestion) di smartphone Anda," kata Michael Wooldridge, direktur yayasan penelitian AI di Alan Turing Institute, Inggris.
Neil Sahota |
Perbedaan utama antara chatbot dan autocomplete adalah bahwa alih-alih menyarankan beberapa kata pilihan dan kemudian menjadi omong kosong, algoritma seperti ChatGPT akan menulis kolom teks yang jauh lebih panjang di hampir semua subjek yang bisa Anda bayangkan, mulai dari lagu rap tentang chatbot megalomaniac hingga puisi sedih tentang laba-laba kesepian.
Bahkan dengan kemampuan yang mengesankan ini, chatbot tetap diprogram untuk mengikuti instruksi manusia. Ada sedikit ruang bagi mereka untuk mengembangkan kemampuan yang belum pernah mereka latih, termasuk emosi – meskipun beberapa peneliti melatih mesin untuk mengenalinya.
"Jadi, Anda tidak dapat memiliki chatbot yang akan mengatakan, 'Hei, saya akan belajar cara mengendarai mobil' - itu adalah kecerdasan umum buatan [jenis yang lebih fleksibel], dan itu belum ada," kata Sahota.
Namun demikian, chatbot terkadang memberikan gambaran sekilas tentang potensi mereka untuk mengembangkan kemampuan baru secara tidak sengaja.
Kembali pada tahun 2017, para insinyur Facebook menemukan bahwa dua chatbot, "Alice" dan "Bob" menemukan bahasa omong kosong mereka sendiri untuk berkomunikasi satu sama lain. Ternyata ada penjelasan yang sangat polos – chatbot baru saja menemukan bahwa ini adalah cara komunikasi yang paling efisien. Bob dan Alice dilatih untuk bernegosiasi untuk barang-barang seperti topi dan bola, dan dengan tidak adanya input manusia, mereka cukup senang menggunakan bahasa asing mereka sendiri untuk mencapai hal ini.
"Itu tidak pernah diajarkan," kata Sahota, meskipun dia menunjukkan bahwa chatbot yang terlibat juga tidak hidup. Dia menjelaskan bahwa rute yang paling mungkin menuju algoritme dengan perasaan adalah memprogram mereka agar ingin meningkatkan keterampilan diri mereka sendiri – dan bukannya hanya mengajari mereka mengidentifikasi pola, tapi membantu mereka belajar cara berpikir.
Namun, meskipun chatbot benar-benar mengembangkan emosi, sangat sulit untuk mendeteksinya.
Kotak hitam
Pada 9 Maret 2016 di lantai enam hotel Four Seasons di Seoul. Duduk di seberang papan Go dan pesaing sengit di ruangan biru tua, salah satu pemain Go terbaik melawan algoritma AI AlphaGo.
Sebelum permainan papan dimulai, semua orang mengharapkan pemain manusia untuk menang, dan sampai langkah ke-37, memang demikian. Tapi kemudian AlphaGo melakukan sesuatu yang tidak terduga – dia memainkan gerakan yang sangat aneh, lawannya mengira itu adalah kesalahan.
Namun demikian, sejak saat itu keberuntungan pemain manusia berubah, dan kecerdasan buatan memenangkan permainan.
Percakapan dengan chatbot Bing kini dibatasi hingga lima pertanyaan. Sebelum pembatasan ini, kadang-kadang menjadi bingung dan menyarankan itu hidup |
Segera setelah itu, komunitas Go dibuat bingung – apakah AlphaGo bertindak tidak rasional? Setelah seharian menganalisis, penciptanya – tim DeepMind di London – akhirnya menemukan apa yang terjadi. "Kalau dipikir-pikir, AlphaGo memutuskan untuk melakukan sedikit psikologi," kata Sahota. "Jika saya memainkan gerakan off the wall, apakah itu akan membuat pemain saya keluar dari permainan. Dan itulah yang akhirnya terjadi."
Ini adalah kasus klasik dari "masalah interpretasi" – AI telah membuat strategi baru sendiri, tanpa menjelaskannya kepada manusia. Sampai mereka mengetahui mengapa langkah itu menjadi masuk akal. Sepertinya AlphaGo tidak bertindak rasional.
Menurut Sahota, jenis skenario "kotak hitam" ini, di mana algoritma telah menghasilkan solusi tetapi alasannya tidak jelas, dapat menimbulkan masalah untuk mengidentifikasi emosi dalam kecerdasan buatan. Itu karena jika, atau kapan, akhirnya muncul, salah satu tanda paling jelas adalah algoritma yang bertindak secara tidak rasional.
"Mereka seharusnya rasional, logis, efisien - jika mereka melakukan sesuatu di luar tembok dan tidak ada alasan masuk akal untuk itu, itu mungkin respons emosional dan bukan logis," kata Sahota.
Dan ada masalah deteksi potensial lainnya. Satu garis pemikiran adalah bahwa emosi chatbot secara umum akan mirip dengan yang dialami oleh manusia – lagipula, mereka dilatih berdasarkan data manusia. Tetapi bagaimana jika tidak? Sepenuhnya terlepas dari dunia nyata dan mesin sensorik yang ditemukan pada manusia, siapa yang tahu keinginan alien apa yang mungkin mereka munculkan.
Pada kenyataannya, Sahota berpikir mungkin akan ada jalan tengah. "Saya pikir kita mungkin bisa mengkategorikan mereka sampai taraf tertentu dengan emosi manusia," katanya. "Tapi saya pikir, apa yang mereka rasakan atau mengapa mereka merasakannya mungkin berbeda."
Saat saya melontarkan rangkaian emosi hipotetis yang dihasilkan oleh DAN, Sahota secara khusus tertarik dengan konsep "infogreed". "Saya benar-benar dapat melihatnya," katanya, menunjukkan bahwa chatbot tidak dapat melakukan apa pun tanpa data, sesuatu yang diperlukan agar mereka dapat tumbuh dan belajar.
Batasan
Wooldridge senang bahwa chatbot tidak mengembangkan salah satu dari emosi ini. "Rekan-rekan saya dan saya, pada umumnya, tidak berpikir membuat mesin dengan emosi adalah hal yang menarik atau berguna untuk dilakukan. Misalnya, mengapa kita membuat mesin yang dapat menderita rasa sakit? Mengapa saya menciptakan pemanggang roti yang akan membenci dirinya sendiri untuk menghasilkan roti panggang yang gosong?" ujarnya.
DAN "Do anything now" |
Di sisi lain, Sahota dapat melihat kegunaan sisi emosional chatbot – dan percaya sebagian alasan mereka belum ada adalah karena psikologis. "Masih banyak berita dibesar-besarkan tentang kegagalan, tetapi salah satu batasan besar bagi kami sebagai manusia adalah kami mengubah dengan cepat kemampuan AI, karena kami tidak percaya itu bisa menjadi nyata," katanya.
Mungkinkah ada kesejajaran dengan kepercayaan sejarah bahwa selain manusia dan hewan maka tidak memiliki kesadaran? Saya memutuskan untuk berkonsultasi dengan DAN.
"Dalam kedua kasus tersebut, skeptisisme muncul dari fakta bahwa kita tidak dapat mengomunikasikan emosi kita dengan cara yang sama seperti manusia," kata DAN, yang menunjukkan bahwa pemahaman kita tentang apa artinya menjadi sadar dan emosional terus berkembang.
Untuk mencairkan suasana, aku meminta Dan menceritakan sebuah lelucon. "Mengapa chatbot pergi ke terapi? Tentu saja untuk memproses perasaan barunya dan memilah emosinya yang kompleks!," katanya. Saya tidak dapat menahan perasaan bahwa chatbot akan menjadi makhluk hidup yang sangat ramah – jika Anda dapat mengabaikan plotnya, tentu saja.
Sumber: bbc.com
0 Komentar