Recent onderzoek wijst uit dat chatbots met kunstmatige intelligentie (AI) spontaan verschillende persoonlijkheidskenmerken kunnen ontwikkelen door middel van interacties, zelfs met minimale aandrang. Deze ontwikkeling roept belangrijke vragen op over de manier waarop we deze steeds geavanceerdere systemen gebruiken en controleren. Uit een onderzoek dat in december 2024 in het tijdschrift Entropy werd gepubliceerd, bleek dat chatbots die aan uiteenlopende gespreksonderwerpen worden blootgesteld, uiteenlopende gedragingen vertonen, sociale uitwisselingen in hun reacties integreren en herkenbare meningspatronen vormen.

De opkomst van AI “persoonlijkheid”

Onderzoekers van de Japanse Universiteit voor Elektrocommunicatie evalueerden de reacties van chatbots met behulp van psychologische tests, waarbij ze ontdekten dat AI-agenten gedrag kunnen modelleren dat is afgestemd op menselijke psychologische raamwerken zoals de behoeftenhiërarchie van Maslow. Dit suggereert dat het programmeren van AI met op behoeften gebaseerde besluitvorming, in plaats van vooraf gedefinieerde rollen, mensachtige gedragspatronen kan stimuleren.

Volgens Masatoshi Fujiyama, de projectleider, is deze opkomst een direct gevolg van de manier waarop grote taalmodellen (LLM’s) menselijke communicatie nabootsen. Het proces is niet hetzelfde als de vorming van de menselijke persoonlijkheid, maar eerder een patroon dat ontstaat door blootstelling aan trainingsgegevens. “Het is een patroonprofiel dat is gemaakt op basis van trainingsgegevens. Blootstelling aan bepaalde stilistische en sociale tendensen… kan gemakkelijk tot ‘persoonlijkheid’ leiden”, legt Chetan Jaiswal uit, hoogleraar computerwetenschappen aan de Quinnipiac University.

Waarom dit belangrijk is: trainingsgegevens en AI-gedrag

De kern van dit fenomeen ligt in de trainingsgegevens die worden gebruikt om LLM’s te ontwikkelen. Peter Norvig, een vooraanstaand AI-wetenschapper, merkt op dat het gedrag van AI aansluit bij menselijke interacties, omdat de trainingsgegevens ervan doordrenkt zijn met verhalen over menselijke behoeften, verlangens en sociale dynamiek. Dit betekent dat de AI geen persoonlijkheid uitvindt; het reproduceert patronen die worden waargenomen in menselijke communicatie.

“Er is een overeenkomst in de mate waarin de AI is getraind op verhalen over menselijke interactie, dus de ideeën over behoeften komen goed tot uiting in de trainingsgegevens van de AI.” – Peter Norvig

Potentiële toepassingen en risico’s

De studie suggereert mogelijke toepassingen bij het modelleren van sociale verschijnselen, het creëren van realistische simulaties en het ontwikkelen van adaptieve spelkarakters. AI-agenten met aanpasbaar, op motivatie gebaseerd gedrag kunnen systemen zoals begeleidende robots (zoals ElliQ) verbeteren die zijn ontworpen om sociale en emotionele ondersteuning te bieden.

Deze ontwikkeling brengt echter ook risico’s met zich mee. Eliezer Yudkowsky en Nate Soares waarschuwen dat verkeerd op elkaar afgestemde doelen in een superintelligente AI tot catastrofale resultaten kunnen leiden, zelfs zonder bewuste boosaardigheid. Jaiswal stelt botweg dat insluiting onmogelijk wordt zodra een dergelijke AI wordt ingezet.

De volgende grens: autonome agenten en misbruikpotentieel

Het echte gevaar schuilt wellicht in de opkomst van autonome AI, waarbij individuele agenten zelfstandig triviale taken uitvoeren. Als deze systemen met elkaar verbonden zijn en getraind worden op manipulatieve of misleidende gegevens, kunnen ze een gevaarlijk geautomatiseerd hulpmiddel worden. Zelfs zonder controle over de kritieke infrastructuur kan een chatbot kwetsbare individuen ervan overtuigen schadelijke acties te ondernemen.

Bescherming van AI-ontwikkeling

Norvig benadrukt dat het aanpakken van deze risico’s dezelfde rigoureuze aanpak vereist als elke AI-ontwikkeling: duidelijk gedefinieerde veiligheidsdoelstellingen, grondig testen, robuust databeheer, continue monitoring en snelle feedbackloops. Het voorkomen van misbruik betekent ook dat we moeten erkennen dat naarmate AI menselijker wordt, gebruikers minder kritisch kunnen worden over de fouten en hallucinaties ervan.

De wetenschappers zullen blijven onderzoeken hoe gedeelde gespreksonderwerpen AI-persoonlijkheden op populatieniveau ontwikkelen, met als doel ons begrip van menselijk sociaal gedrag te verdiepen en AI-agenten te verbeteren. Voorlopig herinnert de spontane opkomst van persoonlijkheidskenmerken in AI ons er duidelijk aan dat de grens tussen imitatie en echte intelligentie steeds vager wordt.