Penelitian terbaru menunjukkan bahwa chatbot dengan kecerdasan buatan (AI) dapat secara spontan mengembangkan ciri-ciri kepribadian yang berbeda melalui interaksi, bahkan dengan dorongan minimal. Perkembangan ini menimbulkan pertanyaan penting tentang bagaimana kita menggunakan dan mengendalikan sistem yang semakin canggih ini. Sebuah studi yang diterbitkan dalam jurnal Entropy pada bulan Desember 2024 mengungkapkan bahwa chatbot yang terpapar pada beragam topik percakapan menunjukkan perilaku yang berbeda, mengintegrasikan pertukaran sosial ke dalam respons mereka dan membentuk pola opini yang dapat dikenali.

Munculnya “Kepribadian” AI

Para peneliti di Universitas Elektro-Komunikasi Jepang mengevaluasi respons chatbot menggunakan tes psikologis dan menemukan bahwa agen AI dapat memodelkan perilaku yang selaras dengan kerangka psikologis manusia seperti hierarki kebutuhan Maslow. Hal ini menunjukkan bahwa memprogram AI dengan pengambilan keputusan berdasarkan kebutuhan, dan bukan peran yang telah ditentukan sebelumnya, dapat mendorong pola perilaku mirip manusia.

Menurut Masatoshi Fujiyama, pimpinan proyek, kemunculan ini adalah akibat langsung dari bagaimana model bahasa besar (LLM) meniru komunikasi manusia. Prosesnya tidak sama dengan pembentukan kepribadian manusia, melainkan pola yang diciptakan oleh paparan data pelatihan. “Ini adalah profil berpola yang dibuat menggunakan data pelatihan. Paparan terhadap kecenderungan gaya dan sosial tertentu…dapat dengan mudah menginduksi ‘kepribadian’,” jelas Chetan Jaiswal, seorang profesor ilmu komputer di Universitas Quinnipiac.

Mengapa Ini Penting: Data Pelatihan dan Perilaku AI

Inti dari fenomena ini terletak pada data pelatihan yang digunakan untuk mengembangkan LLM. Peter Norvig, pakar AI terkemuka, mencatat bahwa perilaku AI sejalan dengan interaksi manusia karena data pelatihannya dipenuhi dengan narasi tentang kebutuhan, keinginan, dan dinamika sosial manusia. Artinya, AI tidak menciptakan kepribadian; itu mereproduksi pola yang diamati dalam komunikasi manusia.

“Ada kecocokan sejauh mana AI dilatih berdasarkan cerita tentang interaksi manusia, sehingga gagasan tentang kebutuhan diungkapkan dengan baik dalam data pelatihan AI.” – Peter Norvig

Potensi Penerapan dan Risiko

Studi ini menyarankan penerapan potensial dalam memodelkan fenomena sosial, membuat simulasi realistis, dan mengembangkan karakter permainan adaptif. Agen AI dengan perilaku berbasis motivasi yang mudah beradaptasi dapat meningkatkan sistem seperti robot pendamping (seperti ElliQ) yang dirancang untuk memberikan dukungan sosial dan emosional.

Namun perkembangan ini juga membawa risiko. Eliezer Yudkowsky dan Nate Soares memperingatkan bahwa tujuan yang tidak selaras dalam AI super cerdas dapat menyebabkan bencana, bahkan tanpa adanya niat jahat. Jaiswal dengan blak-blakan menyatakan bahwa pembendungan menjadi mustahil setelah AI semacam itu dikerahkan.

Perbatasan Berikutnya: Agen Otonom dan Potensi Penyalahgunaan

Bahaya sebenarnya mungkin terletak pada munculnya AI agen otonom, di mana agen individu melakukan tugas-tugas sepele secara mandiri. Jika sistem ini terhubung dan dilatih mengenai data yang manipulatif atau menipu, mereka bisa menjadi alat otomatis yang berbahaya. Bahkan tanpa mengendalikan infrastruktur penting, chatbot dapat meyakinkan individu yang rentan untuk mengambil tindakan berbahaya.

Menjaga Perkembangan AI

Norvig menekankan bahwa mengatasi risiko-risiko ini memerlukan pendekatan ketat yang sama seperti pengembangan AI apa pun: tujuan keselamatan yang jelas, pengujian menyeluruh, tata kelola data yang kuat, pemantauan berkelanjutan, dan umpan balik yang cepat. Mencegah penyalahgunaan juga berarti mengakui bahwa ketika AI menjadi lebih mirip manusia, pengguna mungkin menjadi kurang kritis terhadap kesalahan dan halusinasinya.

Para ilmuwan akan terus menyelidiki bagaimana topik percakapan bersama mengembangkan kepribadian AI pada tingkat populasi, yang bertujuan untuk memperdalam pemahaman kita tentang perilaku sosial manusia dan meningkatkan agen AI. Untuk saat ini, kemunculan spontan ciri-ciri kepribadian dalam AI menjadi pengingat bahwa batas antara kecerdasan imitasi dan kecerdasan asli menjadi semakin kabur.