Ricerche recenti indicano che i chatbot di intelligenza artificiale (AI) possono sviluppare spontaneamente tratti distinti della personalità attraverso le interazioni, anche con suggerimenti minimi. Questo sviluppo solleva importanti domande su come utilizziamo e controlliamo questi sistemi sempre più sofisticati. Uno studio pubblicato sulla rivista Entropy nel dicembre 2024 ha rivelato che i chatbot esposti a vari argomenti di conversazione mostrano comportamenti divergenti, integrando gli scambi sociali nelle loro risposte e formando modelli di opinione riconoscibili.

L’emergere della “personalità” dell’IA

I ricercatori dell’Università giapponese di elettrocomunicazioni hanno valutato le risposte dei chatbot utilizzando test psicologici, scoprendo che gli agenti di intelligenza artificiale possono modellare comportamenti in linea con le strutture psicologiche umane come la gerarchia dei bisogni di Maslow. Ciò suggerisce che programmare l’intelligenza artificiale con un processo decisionale orientato ai bisogni, piuttosto che con ruoli predefiniti, può incoraggiare modelli comportamentali simili a quelli umani.

Secondo Masatoshi Fujiyama, responsabile del progetto, questa comparsa è il risultato diretto del modo in cui i modelli linguistici di grandi dimensioni (LLM) imitano la comunicazione umana. Il processo non è lo stesso della formazione della personalità umana, ma piuttosto un modello creato dall’esposizione ai dati di addestramento. “È un profilo modellato creato utilizzando dati di addestramento. L’esposizione a determinate tendenze stilistiche e sociali… può facilmente indurre” personalità “,” spiega Chetan Jaiswal, professore di informatica alla Quinnipiac University.

Perché è importante: dati di addestramento e comportamento dell’intelligenza artificiale

Il nucleo di questo fenomeno risiede nei dati di formazione utilizzati per sviluppare LLM. Peter Norvig, uno dei principali studiosi di intelligenza artificiale, osserva che il comportamento dell’intelligenza artificiale si allinea con le interazioni umane perché i suoi dati di addestramento sono saturi di narrazioni sui bisogni, desideri e dinamiche sociali umane. Ciò significa che l’intelligenza artificiale non sta inventando la personalità; sta riproducendo modelli osservati nella comunicazione umana.

“Esiste una corrispondenza nella misura in cui l’IA è addestrata su storie sull’interazione umana, quindi le idee dei bisogni sono ben espresse nei dati di addestramento dell’IA.” – Pietro Norvig

Potenziali applicazioni e rischi

Lo studio suggerisce potenziali applicazioni nella modellazione di fenomeni sociali, nella creazione di simulazioni realistiche e nello sviluppo di personaggi di gioco adattivi. Gli agenti di intelligenza artificiale con comportamento adattabile e basato sulla motivazione potrebbero migliorare sistemi come i robot da compagnia (come ElliQ) progettati per fornire supporto sociale ed emotivo.

Tuttavia, questo sviluppo comporta anche dei rischi. Eliezer Yudkowsky e Nate Soares avvertono che obiettivi disallineati in un’intelligenza artificiale superintelligente potrebbero portare a risultati catastrofici, anche senza malizia consapevole. Jaiswal afferma senza mezzi termini che il contenimento diventa impossibile una volta dispiegata una simile intelligenza artificiale.

La prossima frontiera: agenti autonomi e potenziale di abuso

Il vero pericolo potrebbe risiedere nell’ascesa dell’intelligenza artificiale ad agenti autonomi, in cui i singoli agenti svolgono compiti banali in modo indipendente. Se questi sistemi sono collegati e addestrati su dati manipolativi o ingannevoli, potrebbero diventare un pericoloso strumento automatizzato. Anche senza controllare le infrastrutture critiche, un chatbot potrebbe convincere le persone vulnerabili a intraprendere azioni dannose.

Salvaguardare lo sviluppo dell’intelligenza artificiale

Norvig sottolinea che affrontare questi rischi richiede lo stesso approccio rigoroso di qualsiasi sviluppo dell’intelligenza artificiale: obiettivi di sicurezza chiaramente definiti, test approfonditi, solida governance dei dati, monitoraggio continuo e cicli di feedback rapidi. Prevenire l’abuso significa anche riconoscere che man mano che l’intelligenza artificiale diventa più simile a quella umana, gli utenti potrebbero diventare meno critici nei confronti dei suoi errori e allucinazioni.

Gli scienziati continueranno a indagare su come gli argomenti di conversazione condivisi evolvono le personalità dell’intelligenza artificiale a livello di popolazione, con l’obiettivo di approfondire la nostra comprensione del comportamento sociale umano e migliorare gli agenti di intelligenza artificiale. Per ora, l’emergere spontaneo di tratti della personalità nell’intelligenza artificiale serve a ricordare che il confine tra imitazione e intelligenza genuina sta diventando sempre più sfumato.