Raksasa teknologi ingin kita jatuh cinta pada kecerdasan buatan
Joanna Stern, jurnalis Wall Street Journal, tersenyum. Dan dia mengajukan pertanyaan spesifik kepada Rick Osterloh, Wakil Presiden Senior Platform dan Perangkat di Google. “Sepertinya kalian di Silicon Valley punya obsesi untuk membuat ulang film tersebut Dia. Tapi itu tidak berakhir baik bagi manusia, aku tidak tahu apakah kamu mengingatnya.” Tanggapan Osterloh agak memalukan: “Yah, itu tentu saja bukan tujuan kami. Kami ingin kecerdasan buatan dapat bermanfaat bagi manusia.”
Diposting oleh @joannasternLihat di Thread
Apa yang baru dari Google, OpenAI, dan Apple
Konteks wawancara ini adalah presentasi Google Pixel 9 baru, smartphone andalan Big G. Sebuah perangkat yang tentu saja memiliki serangkaian fungsi AI di dalamnya. Salah satu aspek utama dari presentasi ini adalah Gemini Live, evolusi kecerdasan buatan Google.
Gemini Live adalah asisten suara yang mampu melakukan percakapan alami dengan pengguna. Suaranya lebih kredibel, mampu memodulasi nada dan intonasi sedekat mungkin dengan ucapan manusia.
Ini adalah kemenangan bagi Google. Perusahaan besar pertama yang meluncurkan evolusi ini, yaitu AI sebagai asisten. OpenAI sedang mengerjakannya, setelah menghadirkan GPT-4o pada bulan Mei, model baru yang mampu berbicara secara kredibel dengan pengguna (dengan suara Scarlett Johanson, tapi itu cerita lain). Dan Apple harus meluncurkan sesuatu yang serupa pada bulan September, yang dengan iOS 18 dan Apple Intelligence berencana memberikan evolusi penting pada Siri yang banyak difitnah.
Singkatnya, ini adalah arah yang tampaknya diambil oleh Silicon Valley: masa depan kecerdasan buatan adalah suara. Seorang asisten, mampu melakukan sesuatu yang bermanfaat, dan juga enak diajak bicara.
Apa risikonya?
Dan di sini kita kembali ke awal artikel ini. Dan ke film Diayang menceritakan kisah cinta antara seorang pria dan asisten suaranya. Risiko utama persis seperti yang dijelaskan oleh sutradara Spike Jonze: manusia menjadi terlalu terikat pada kecerdasan buatan.
Hal ini diungkapkan oleh OpenAI sendiri, yang dalam laporan keamanannya baru-baru ini mengakui bahwa jenis suara ini dapat mendorong beberapa pengguna untuk mengembangkan keterikatan emosional terhadap chatbot. Indikasi ini dapat ditemukan dalam Kartu Sistem GPT-4o, sebuah dokumen teknis yang menjelaskan risiko yang diidentifikasi oleh perusahaan untuk model tersebut, bersama dengan informasi mengenai uji keselamatan dan tindakan yang diambil untuk meminimalkan risiko tersebut. “Ini hari terakhir kita bersama,” kata salah satu peserta uji keamanan AI kepada GPT-4o.
Menurut Massachusetts Institute of Technology, “kita dihadapkan pada eksperimen besar-besaran yang sedang berlangsung, tanpa mengetahui secara pasti apa dampak chatbot AI ini terhadap kita sebagai individu atau masyarakat.” Selain itu, ketika kredibilitas meningkat, risiko yang disebut efek ELIZA meningkat, yaitu kecenderungan orang untuk memberikan makna emosional atau kecerdasan terhadap jawaban yang diberikan oleh program komputer. Dengan demikian, kita mengembangkan ikatan: bagaimanapun juga, kecerdasan buatan selalu ada dan tampaknya memahami keinginan dan kebutuhan kita. Terlebih lagi jika suaranya terdengar seperti manusia dan hidup.
Tujuannya: membangun hubungan dengan objek
Pendamping AI adalah fenomena yang sudah ada. Ada aplikasi khusus, seperti Replika dan Character.AI, yang bertujuan menyediakan chatbots – dipersonalisasi atau tidak – untuk memerangi kesepian, untuk menemani. Mereka berhasil, terutama di Amerika Serikat: pada saat artikel ini ditulis, Character adalah aplikasi hiburan keempat yang paling banyak diunduh di Amerika. Dan model hubungan inilah yang tampaknya dicari oleh Silicon Valley.
Karena coba pikirkan, apa jadinya jika kita terikat pada seseorang atau sesuatu? Kami selalu kembali, kami mencari kontak. Jika kita berbicara tentang suatu benda, kita terus menggunakannya: benda itu, dalam satu atau lain cara, menjadi bagian dari kehidupan kita. Ini mungkin kebetulan, tapi saat ini justru itulah masalah kecerdasan buatan generatif, ChatGPT, Gemini atau Claude: semua orang telah mencobanya, tidak banyak yang menggunakannya setiap hari dan menganggapnya benar-benar berguna.
Mungkinkah ini kuncinya – yang sangat berisiko –?