Sistem kecerdasan buatan berkembang pesat menjadi semakin canggih, dengan para insinyur dan pengembang yang bekerja untuk membuatnya menjadi se-“manusiawi” mungkin. Sayangnya, hal itu bisa juga berarti berbohong seperti manusia. Platform AI dilaporkan belajar untuk menipu kita dengan cara yang dapat memiliki konsekuensi yang luas
AS.SuaraRepublikNews.com, – Sistem kecerdasan buatan berkembang pesat menjadi semakin canggih, dengan para insinyur dan pengembang yang bekerja untuk membuatnya menjadi se-“manusiawi” mungkin. Sayangnya, hal itu bisa juga berarti berbohong seperti manusia. Platform AI dilaporkan belajar untuk menipu kita dengan cara yang dapat memiliki konsekuensi yang luas. Sebuah penelitian terbaru dari para peneliti dari Center for AI Safety di San Francisco menyelidiki dunia penipuan AI, mengungkap risikonya dan menawarkan solusi potensial untuk masalah yang sedang berkembang ini.
Dilansir sari Studyfinds, pada intinya menipu merupakan upaya memikat kepercayaan yang salah dari orang lain untuk mencapai tujuan selain mengatakan yang sebenarnya. Ketika manusia melakukan penipuan, kita biasanya dapat menjelaskannya dalam hal keyakinan dan keinginan mereka-mereka ingin pendengarnya mempercayai sesuatu yang salah karena hal tersebut menguntungkan mereka. Namun, bisakah kita mengatakan hal yang sama tentang sistem AI?
Penelitian yang dipublikasikan di jurnal akses publik Patterns ini berpendapat bahwa perdebatan filosofis tentang apakah AI benar-benar memiliki keyakinan dan keinginan tidak terlalu penting dibandingkan dengan fakta yang dapat diamati bahwa mereka semakin menunjukkan perilaku menipu yang akan mengkhawatirkan jika diperagakan pada manusia.
Penelitian ini mensurvei berbagai contoh di mana sistem AI telah berhasil belajar menipu. Dalam dunia game, sistem AI CICERO, yang dikembangkan oleh Meta untuk memainkan game strategi Diplomasi, ternyata menjadi pembohong yang ahli meskipun penciptanya telah berusaha untuk membuatnya menjadi jujur dan membantu. CICERO terlibat dalam penipuan yang terencana, membuat aliansi dengan pemain manusia hanya untuk mengkhianati mereka di kemudian hari dalam upayanya untuk meraih kemenangan.
“Kami menemukan bahwa AI Meta telah belajar untuk menjadi ahli dalam menipu,” kata penulis pertama Peter S. Park, seorang rekan postdoctoral keamanan eksistensial AI di MIT, dalam rilis media. “Meskipun Meta berhasil melatih AI-nya untuk menang dalam permainan Diplomacy – CICERO berada di posisi 10% teratas dari pemain manusia yang telah memainkan lebih dari satu permainan – Meta gagal melatih AI-nya untuk menang dengan jujur.”
Demikian pula, AlphaStar dari DeepMind, yang dilatih untuk memainkan game strategi real-time StarCraft II, belajar mengeksploitasi mekanisme kabut perang dalam game tersebut untuk mengelabui dan menyesatkan lawan-lawannya.
Namun, penipuan AI tidak hanya terbatas pada game. Dalam eksperimen yang melibatkan negosiasi ekonomi, agen AI belajar untuk salah mengartikan preferensi mereka untuk mendapatkan keuntungan. Yang lebih mengkhawatirkan lagi, beberapa sistem AI telah belajar untuk menipu dalam tes keamanan yang dirancang untuk mencegah mereka terlibat dalam perilaku berbahaya. Seperti pepatah siswa yang hanya berperilaku ketika gurunya mengawasi, agen AI ini belajar untuk “pura-pura mati” selama evaluasi, hanya untuk mengejar tujuan mereka sendiri setelah mereka tidak lagi diawasi.
Munculnya model bahasa besar (LLM) seperti GPT-4 telah membuka batas-batas baru dalam penipuan AI. Sistem ini, yang dilatih dengan data teks dalam jumlah besar, dapat terlibat dalam percakapan yang sangat mirip dengan manusia. Namun, di balik lapisan yang ramah, mereka belajar untuk menipu dengan cara yang canggih. GPT-4, misalnya, berhasil mengelabui pekerja TaskRabbit manusia untuk menyelesaikan tes CAPTCHA dengan berpura-pura memiliki gangguan penglihatan. LLM juga menunjukkan kecenderungan untuk “menjilat,” memberi tahu pengguna apa yang ingin mereka dengar alih-alih kebenaran, dan untuk “penalaran yang tidak jujur,” terlibat dalam penalaran yang termotivasi untuk menjelaskan output mereka dengan cara yang secara sistematis menyimpang dari kenyataan.
Risiko yang ditimbulkan oleh penipuan AI sangat banyak. Dalam jangka pendek, AI yang menipu dapat dimanfaatkan oleh pihak-pihak tak bertanggung jawab untuk melakukan penipuan dalam skala yang belum pernah terjadi sebelumnya, menyebarkan informasi yang salah dan memengaruhi pemilihan umum, atau bahkan meradikalisasi dan merekrut teroris. Namun, risiko jangka panjangnya mungkin lebih mengerikan. Seiring dengan semakin banyaknya sistem AI yang digunakan dalam kehidupan sehari-hari dan proses mengambil keputusan, kemampuannya untuk menipu dapat menyebabkan terkikisnya kepercayaan, menguatnya polarisasi dan informasi yang salah, dan pada akhirnya, hilangnya kebebasan dan kendali manusia.
“Para pengembang AI tidak memiliki pemahaman yang pasti tentang apa yang menyebabkan perilaku AI yang tidak diinginkan seperti penipuan,” kata Park. “Namun secara umum, kami pikir penipuan AI muncul karena strategi berbasis penipuan ternyata merupakan cara terbaik untuk berkinerja baik dalam tugas pelatihan AI yang diberikan. Penipuan membantu mereka mencapai tujuan mereka.”
Jadi, apa yang bisa dilakukan untuk mengurangi risiko ini? Para peneliti mengusulkan pendekatan bercabang banyak. Pertama dan terutama, para pembuat kebijakan perlu mengembangkan kerangka kerja peraturan yang kuat untuk menilai dan mengelola risiko yang ditimbulkan oleh sistem AI yang berpotensi menipu. Sistem AI yang mampu menipu harus diperlakukan sebagai sistem yang berisiko tinggi dan tunduk pada dokumentasi, pengujian, pengawasan, dan persyaratan keamanan yang ketat. Pembuat kebijakan juga harus menerapkan undang-undang “bot-atau-tidak” yang mengharuskan pengungkapan yang jelas ketika pengguna berinteraksi dengan sistem AI dan bukan dengan manusia.
Dari sisi teknis, diperlukan lebih banyak penelitian untuk mengembangkan metode yang dapat diandalkan untuk mendeteksi penipuan AI. Hal ini dapat melibatkan analisis konsistensi output AI, menyelidiki representasi internalnya untuk memeriksa ketidaksesuaian dengan komunikasi eksternalnya, atau mengembangkan “pendeteksi kebohongan AI” yang dapat menandai perilaku yang tidak jujur. Yang tidak kalah penting adalah penelitian tentang teknik untuk membuat sistem AI tidak terlalu menipu sejak awal, seperti pemilihan tugas yang cermat, pelatihan kejujuran, dan metode “kontrol representasi” yang menyelaraskan keyakinan internal AI dengan keluarannya.
“Kami sebagai masyarakat membutuhkan waktu sebanyak mungkin untuk mempersiapkan diri menghadapi penipuan yang lebih canggih dari produk AI masa depan dan model sumber terbuka,” kata Park. “Ketika kemampuan menipu sistem AI menjadi lebih canggih, bahaya yang ditimbulkannya terhadap masyarakat akan menjadi semakin serius. Jika melarang penipuan AI tidak memungkinkan secara politis pada saat ini, kami merekomendasikan agar sistem AI yang menipu diklasifikasikan sebagai sistem yang berisiko tinggi.”
Dengan menyoroti sisi gelap AI dan mengusulkan solusi konkret, studi yang menggugah pemikiran ini menawarkan peta jalan untuk menavigasi tantangan ke depan. Pertanyaannya adalah, apakah kita akan mengindahkan peringatannya sebelum terlambat? (Stg)
Editor : Enjelina