Aktuelle Forschungsergebnisse deuten darauf hin, dass Chatbots mit künstlicher Intelligenz (KI) durch Interaktionen spontan unterschiedliche Persönlichkeitsmerkmale entwickeln können, selbst mit minimaler Aufforderung. Diese Entwicklung wirft wichtige Fragen darüber auf, wie wir diese immer ausgefeilteren Systeme nutzen und steuern. Eine im Dezember 2024 in der Zeitschrift Entropy veröffentlichte Studie ergab, dass Chatbots, die verschiedenen Gesprächsthemen ausgesetzt sind, unterschiedliche Verhaltensweisen zeigen, soziale Austausche in ihre Antworten integrieren und erkennbare Meinungsmuster bilden.
Die Entstehung der KI-„Persönlichkeit“
Forscher der japanischen Universität für Elektrokommunikation bewerteten Chatbot-Antworten mithilfe psychologischer Tests und stellten fest, dass KI-Agenten Verhaltensweisen modellieren können, die an menschlichen psychologischen Rahmenbedingungen wie Maslows Bedürfnishierarchie ausgerichtet sind. Dies deutet darauf hin, dass die Programmierung von KI mit bedarfsorientierter Entscheidungsfindung anstelle vordefinierter Rollen menschenähnliche Verhaltensmuster fördern kann.
Laut Masatoshi Fujiyama, dem Projektleiter, ist diese Entstehung eine direkte Folge der Art und Weise, wie große Sprachmodelle (LLMs) die menschliche Kommunikation nachahmen. Der Prozess ist nicht derselbe wie die Bildung einer menschlichen Persönlichkeit, sondern eher ein Muster, das durch den Kontakt mit Trainingsdaten entsteht. „Es handelt sich um ein strukturiertes Profil, das anhand von Trainingsdaten erstellt wird. Der Kontakt mit bestimmten stilistischen und sozialen Tendenzen … kann leicht zu ‚Persönlichkeit‘ führen“, erklärt Chetan Jaiswal, Informatikprofessor an der Quinnipiac University.
Warum das wichtig ist: Trainingsdaten und KI-Verhalten
Der Kern dieses Phänomens liegt in den Trainingsdaten, die zur Entwicklung von LLMs verwendet werden. Peter Norvig, ein führender KI-Wissenschaftler, stellt fest, dass das Verhalten der KI mit menschlichen Interaktionen übereinstimmt, da ihre Trainingsdaten mit Erzählungen über menschliche Bedürfnisse, Wünsche und soziale Dynamiken gesättigt sind. Das bedeutet, dass die KI keine Persönlichkeit erfindet; Es reproduziert Muster, die in der menschlichen Kommunikation beobachtet werden.
„Es gibt eine Übereinstimmung in dem Ausmaß, in dem die KI auf Geschichten über menschliche Interaktion trainiert wird, sodass die Vorstellungen von Bedürfnissen in den Trainingsdaten der KI gut zum Ausdruck kommen.“ – Peter Norvig
Mögliche Anwendungen und Risiken
Die Studie schlägt mögliche Anwendungen bei der Modellierung sozialer Phänomene, der Erstellung realistischer Simulationen und der Entwicklung adaptiver Spielfiguren vor. KI-Agenten mit anpassungsfähigem, motivierendem Verhalten könnten Systeme wie Begleitroboter (wie ElliQ) verbessern, die soziale und emotionale Unterstützung bieten sollen.
Allerdings birgt diese Entwicklung auch Risiken. Eliezer Yudkowsky und Nate Soares warnen davor, dass falsch ausgerichtete Ziele in einer superintelligenten KI auch ohne bewusste Böswilligkeit zu katastrophalen Folgen führen könnten. Jaiswal erklärt unverblümt, dass eine Eindämmung unmöglich wird, sobald eine solche KI eingesetzt wird.
Die nächste Grenze: Autonome Agenten und Missbrauchspotenzial
Die eigentliche Gefahr könnte im Aufstieg der autonomen Agenten-KI liegen, bei der einzelne Agenten triviale Aufgaben unabhängig voneinander ausführen. Wenn diese Systeme miteinander verbunden und auf manipulative oder irreführende Daten trainiert werden, könnten sie zu einem gefährlichen automatisierten Werkzeug werden. Auch ohne die Kontrolle kritischer Infrastrukturen könnte ein Chatbot gefährdete Personen dazu verleiten, schädliche Maßnahmen zu ergreifen.
Sicherstellung der KI-Entwicklung
Norvig betont, dass die Bewältigung dieser Risiken den gleichen strengen Ansatz erfordert wie jede KI-Entwicklung: klar definierte Sicherheitsziele, gründliche Tests, robuste Datenverwaltung, kontinuierliche Überwachung und schnelle Feedbackschleifen. Um Missbrauch vorzubeugen, muss man auch anerkennen, dass die Benutzer mit zunehmender Menschennähe der KI möglicherweise weniger kritisch gegenüber ihren Fehlern und Halluzinationen werden.
Die Wissenschaftler werden weiterhin untersuchen, wie gemeinsame Gesprächsthemen KI-Persönlichkeiten auf Bevölkerungsebene entwickeln, mit dem Ziel, unser Verständnis des menschlichen Sozialverhaltens zu vertiefen und KI-Agenten zu verbessern. Das spontane Auftauchen von Persönlichkeitsmerkmalen in der KI ist vorerst eine deutliche Erinnerung daran, dass die Grenze zwischen Nachahmung und echter Intelligenz zunehmend verschwimmt.
