Ostatnie badania sugerują, że chatboty oparte na sztucznej inteligencji (AI) mogą spontanicznie rozwijać odrębne cechy osobowości w drodze interakcji, nawet przy minimalnym wkładzie. Rozwój ten rodzi ważne pytania dotyczące tego, w jaki sposób wykorzystujemy i kontrolujemy te coraz bardziej złożone systemy. Badanie opublikowane w czasopiśmie Entropy w grudniu 2024 r. wykazało, że chatboty narażone na różne tematy rozmów wykazywały różne wzorce zachowań, integrując wymianę społeczną w swoich odpowiedziach i tworząc rozpoznawalne wzorce opinii.
Manifestacja „Osobowości” AI
Naukowcy z Japan Telecommunications University ocenili reakcje chatbotów za pomocą testów psychologicznych i odkryli, że agenci sztucznej inteligencji byli w stanie modelować zachowanie zgodne z ludzkimi ramami psychologicznymi, takimi jak hierarchia potrzeb Maslowa. Sugeruje to, że programowanie sztucznej inteligencji w oparciu o potrzeby, a nie z góry określone role, może umożliwić pojawienie się wzorców zachowań przypominających ludzi.
Zdaniem Masatoshiego Fujiyamy, lidera projektu, zjawisko to wynika bezpośrednio z tego, jak duże modele językowe (LLM) naśladują komunikację ludzką. Proces ten nie jest tożsamy z kształtowaniem się osobowości człowieka, lecz jest raczej wzorcem utworzonym pod wpływem danych treningowych. “To naturalny profil stworzony na podstawie danych szkoleniowych. Narażenie na pewne trendy stylistyczne i społeczne… może łatwo wykształcić „osobowość” – wyjaśnia Chetan Jaiswal, profesor informatyki na Uniwersytecie Quinnipiac.
Dlaczego to ma znaczenie: dane szkoleniowe i zachowanie sztucznej inteligencji
Istota tego zjawiska leży w danych treningowych wykorzystywanych do opracowania LLM. Peter Norvig, czołowy ekspert w dziedzinie sztucznej inteligencji, zauważa, że zachowanie sztucznej inteligencji odpowiada interakcjom międzyludzkim, ponieważ zawarte w niej dane szkoleniowe są bogate w narracje na temat ludzkich potrzeb, pragnień i dynamiki społecznej. Oznacza to, że sztuczna inteligencja nie wymyśla osobowości; reprodukuje wzorce obserwowane w komunikacji międzyludzkiej.
„To pasuje, ponieważ sztuczna inteligencja jest szkolona na podstawie historii o interakcjach międzyludzkich, więc wyobrażenia o potrzebach są dobrze wyrażone w jej danych szkoleniowych”. — Piotr Norvig
Potencjalne zastosowania i ryzyko
Badania sugerują potencjalne zastosowania w modelowaniu zjawisk społecznych, tworzeniu realistycznych symulacji i opracowywaniu adaptacyjnych postaci w grach. Agenci AI o zachowaniu adaptacyjnym opartym na motywacji mogą ulepszyć systemy takie jak roboty towarzyszące (takie jak ElliQ) zaprojektowane w celu zapewnienia wsparcia społecznego i emocjonalnego.
Jednak rozwój ten niesie ze sobą także ryzyko. Eliezer Yudkowsky i Nate Soares ostrzegają, że niezgodne cele superinteligentnej sztucznej inteligencji mogą prowadzić do katastrofalnych konsekwencji, nawet bez świadomej złośliwości. Jaiswal wyraźnie stwierdza, że po wdrożeniu takiej sztucznej inteligencji odstraszanie staje się niemożliwe.
Następna granica: agenci autonomiczni i potencjał nadużyć
Prawdziwym zagrożeniem może być pojawienie się autonomicznych agentów AI, w których poszczególni agenci samodzielnie wykonują banalne zadania. Jeśli systemy te zostaną połączone i przeszkolone w zakresie manipulacyjnych lub zwodniczych danych, mogą stać się niebezpiecznymi, zautomatyzowanymi narzędziami. Nawet bez kontroli nad infrastrukturą krytyczną chatbot może przekonać bezbronne osoby do podjęcia złośliwych działań.
Zapewnienie bezpieczeństwa rozwoju AI
Norvig podkreśla, że zajęcie się tymi zagrożeniami wymaga takiego samego rygoru, jak każdy rozwój sztucznej inteligencji: jasno określonych celów bezpieczeństwa, rygorystycznych testów, solidnego zarządzania danymi, ciągłego monitorowania i szybkich pętli informacji zwrotnej. Zapobieganie nadużyciom oznacza także uznanie, że w miarę jak sztuczna inteligencja będzie bardziej przypominać człowieka, użytkownicy będą mniej krytyczni wobec jej błędów i halucynacji.
Naukowcy będą w dalszym ciągu badać, w jaki sposób popularne tematy rozmów kształtują osobowości sztucznej inteligencji na poziomie populacji, mając na celu pogłębienie wiedzy na temat ludzkich zachowań społecznych i ulepszenie agentów sztucznej inteligencji. Na razie spontaniczne pojawienie się cech osobowości w sztucznej inteligencji stanowi wyraźne przypomnienie, że granica między naśladownictwem a prawdziwą inteligencją coraz bardziej się zaciera.
