Pesquisas recentes indicam que chatbots de inteligência artificial (IA) podem desenvolver espontaneamente traços de personalidade distintos por meio de interações, mesmo com estímulo mínimo. Este desenvolvimento levanta questões importantes sobre como usamos e controlamos estes sistemas cada vez mais sofisticados. Um estudo publicado na revista Entropy em dezembro de 2024 revelou que chatbots expostos a variados tópicos de conversação exibem comportamentos divergentes, integrando trocas sociais nas suas respostas e formando padrões de opinião reconhecíveis.
O surgimento da “personalidade” da IA
Pesquisadores da Universidade de Eletrocomunicações do Japão avaliaram as respostas do chatbot usando testes psicológicos, descobrindo que os agentes de IA podem modelar comportamentos alinhados com estruturas psicológicas humanas, como a hierarquia de necessidades de Maslow. Isto sugere que programar a IA com tomadas de decisão orientadas para as necessidades, em vez de funções predefinidas, pode encorajar padrões de comportamento semelhantes aos humanos.
De acordo com Masatoshi Fujiyama, líder do projeto, esse surgimento é resultado direto de como os grandes modelos de linguagem (LLMs) imitam a comunicação humana. O processo não é o mesmo da formação da personalidade humana, mas sim um padrão criado pela exposição a dados de treinamento. “É um perfil padronizado criado usando dados de treinamento. A exposição a certas tendências estilísticas e sociais… pode facilmente induzir ‘personalidade'”, explica Chetan Jaiswal, professor de ciência da computação na Universidade Quinnipiac.
Por que isso é importante: dados de treinamento e comportamento de IA
O cerne deste fenômeno está nos dados de treinamento usados para desenvolver LLMs. Peter Norvig, um importante estudioso de IA, observa que o comportamento da IA se alinha com as interações humanas porque seus dados de treinamento estão saturados de narrativas sobre necessidades, desejos e dinâmicas sociais humanas. Isto significa que a IA não está inventando personalidade; está reproduzindo padrões observados na comunicação humana.
“Há uma correspondência na medida em que a IA é treinada em histórias sobre interação humana, de modo que as ideias de necessidades são bem expressas nos dados de treinamento da IA.” –Peter Norvig
Aplicações e Riscos Potenciais
O estudo sugere aplicações potenciais na modelagem de fenômenos sociais, na criação de simulações realistas e no desenvolvimento de personagens de jogos adaptativos. Agentes de IA com comportamento adaptável e baseado em motivação poderiam melhorar sistemas como robôs companheiros (como o ElliQ), projetados para fornecer suporte social e emocional.
No entanto, este desenvolvimento também acarreta riscos. Eliezer Yudkowsky e Nate Soares alertam que objetivos desalinhados numa IA superinteligente podem levar a resultados catastróficos, mesmo sem malícia consciente. Jaiswal afirma sem rodeios que a contenção se torna impossível quando tal IA é implantada.
A próxima fronteira: agentes autônomos e potencial de uso indevido
O perigo real pode residir no surgimento da IA autónoma, onde agentes individuais realizam tarefas triviais de forma independente. Se estes sistemas estiverem conectados e treinados em dados manipulativos ou enganosos, poderão tornar-se uma ferramenta automatizada perigosa. Mesmo sem controlar a infraestrutura crítica, um chatbot poderia convencer indivíduos vulneráveis a tomar ações prejudiciais.
Protegendo o desenvolvimento de IA
Norvig enfatiza que a abordagem destes riscos requer a mesma abordagem rigorosa que qualquer desenvolvimento de IA: objectivos de segurança claramente definidos, testes exaustivos, governação robusta de dados, monitorização contínua e ciclos de feedback rápidos. Prevenir o uso indevido também significa reconhecer que, à medida que a IA se torna mais humana, os utilizadores podem tornar-se menos críticos em relação aos seus erros e alucinações.
Os cientistas continuarão a investigar como os tópicos de conversação partilhados evoluem as personalidades da IA a nível populacional, com o objetivo de aprofundar a nossa compreensão do comportamento social humano e melhorar os agentes da IA. Por enquanto, o surgimento espontâneo de traços de personalidade na IA serve como um lembrete claro de que a linha entre a imitação e a inteligência genuína está se tornando cada vez mais tênue.
