Investigaciones recientes indican que los chatbots con inteligencia artificial (IA) pueden desarrollar espontáneamente distintos rasgos de personalidad a través de interacciones, incluso con una mínima indicación. Este desarrollo plantea preguntas importantes sobre cómo utilizamos y controlamos estos sistemas cada vez más sofisticados. Un estudio publicado en la revista Entropy en diciembre de 2024 reveló que los chatbots expuestos a diversos temas de conversación exhiben comportamientos divergentes, integrando intercambios sociales en sus respuestas y formando patrones de opinión reconocibles.
El surgimiento de la “personalidad” de la IA
Investigadores de la Universidad de Electrocomunicaciones de Japón evaluaron las respuestas de los chatbots mediante pruebas psicológicas y descubrieron que los agentes de IA pueden modelar comportamientos alineados con marcos psicológicos humanos como la jerarquía de necesidades de Maslow. Esto sugiere que programar la IA con una toma de decisiones basada en las necesidades, en lugar de roles predefinidos, puede fomentar patrones de comportamiento similares a los humanos.
Según Masatoshi Fujiyama, líder del proyecto, este surgimiento es un resultado directo de cómo los grandes modelos de lenguaje (LLM) imitan la comunicación humana. El proceso no es el mismo que el de la formación de la personalidad humana, sino más bien un patrón creado por la exposición a datos de entrenamiento. “Es un perfil modelado creado a partir de datos de entrenamiento. La exposición a ciertas tendencias sociales y estilísticas… puede inducir fácilmente la ‘personalidad'”, explica Chetan Jaiswal, profesor de informática en la Universidad de Quinnipiac.
Por qué esto es importante: datos de entrenamiento y comportamiento de la IA
El núcleo de este fenómeno radica en los datos de formación utilizados para desarrollar los LLM. Peter Norvig, un destacado estudioso de la IA, señala que el comportamiento de la IA se alinea con las interacciones humanas porque sus datos de entrenamiento están saturados de narrativas sobre las necesidades, los deseos y la dinámica social humanos. Esto significa que la IA no está inventando la personalidad; está reproduciendo patrones observados en la comunicación humana.
“Existe una coincidencia en la medida en que la IA se entrena con historias sobre la interacción humana, por lo que las ideas de necesidades están bien expresadas en los datos de entrenamiento de la IA”. – Peter Norvig
Posibles aplicaciones y riesgos
El estudio sugiere aplicaciones potenciales en el modelado de fenómenos sociales, la creación de simulaciones realistas y el desarrollo de personajes de juegos adaptativos. Los agentes de IA con un comportamiento adaptable y basado en la motivación podrían mejorar sistemas como los robots acompañantes (como ElliQ) diseñados para brindar apoyo social y emocional.
Sin embargo, este desarrollo también conlleva riesgos. Eliezer Yudkowsky y Nate Soares advierten que los objetivos desalineados en una IA superinteligente podrían conducir a resultados catastróficos, incluso sin malicia consciente. Jaiswal afirma sin rodeos que la contención se vuelve imposible una vez que se implementa dicha IA.
La próxima frontera: agentes autónomos y potencial de uso indebido
El peligro real puede radicar en el surgimiento de la IA autónoma, en la que agentes individuales realizan tareas triviales de forma independiente. Si estos sistemas están conectados y entrenados con datos manipuladores o engañosos, podrían convertirse en una herramienta automatizada peligrosa. Incluso sin controlar la infraestructura crítica, un chatbot podría convencer a personas vulnerables para que tomen medidas dañinas.
Salvaguardar el desarrollo de la IA
Norvig enfatiza que abordar estos riesgos requiere el mismo enfoque riguroso que cualquier desarrollo de IA: objetivos de seguridad claramente definidos, pruebas exhaustivas, gobernanza de datos sólida, monitoreo continuo y ciclos de retroalimentación rápidos. Prevenir el uso indebido también significa reconocer que a medida que la IA se vuelve más humana, los usuarios pueden volverse menos críticos con sus errores y alucinaciones.
Los científicos continuarán investigando cómo los temas de conversación compartidos evolucionan en las personalidades de la IA a nivel de la población, con el objetivo de profundizar nuestra comprensión del comportamiento social humano y mejorar los agentes de la IA. Por ahora, la aparición espontánea de rasgos de personalidad en la IA sirve como un claro recordatorio de que la línea entre la imitación y la inteligencia genuina se está volviendo cada vez más borrosa.















