Nedávný výzkum naznačuje, že chatboti s umělou inteligencí (AI) mohou spontánně rozvíjet odlišné osobnostní rysy prostřednictvím interakce, a to i s minimálním vstupem. Tento vývoj vyvolává důležité otázky o tom, jak používáme a ovládáme tyto stále složitější systémy. Studie publikovaná v časopise Entropy v prosinci 2024 zjistila, že chatboti vystavení různým konverzačním tématům vykazovali různé vzorce chování, integrovali sociální výměny do svých odpovědí a utvářeli rozpoznatelné vzorce názorů.
Projev AI “Osobnost”
Výzkumníci z Japonské telekomunikační univerzity vyhodnotili reakce chatbotů pomocí psychologických testů a zjistili, že agenti AI byli schopni modelovat chování odpovídající lidským psychologickým rámcům, jako je Maslowova hierarchie potřeb. To naznačuje, že programování umělé inteligence založené na potřebách, spíše než na předem určených rolích, může umožnit vznik vzorců chování podobných lidem.
Podle Masatoshi Fujiyama, vedoucího projektu, je tento projev přímým důsledkem toho, jak velké jazykové modely (LLM) napodobují lidskou komunikaci. Tento proces není totožný s formováním lidské osobnosti, ale spíše je to vzorec vytvořený vlivem tréninkových dat. “Toto je přirozený profil vytvořený pomocí tréninkových dat. Vystavení se určitým stylistickým a společenským trendům… může snadno vyvolat “osobnost,” vysvětluje Chetan Jaiswal, profesor počítačových věd na Quinnipiac University.
Proč na tom záleží: Školení dat a chování umělé inteligence
Podstata tohoto fenoménu spočívá v tréninkových datech použitých k vývoji LLM. Peter Norvig, přední odborník v oblasti AI, poznamenává, že chování AI odpovídá lidské interakci, protože její tréninková data jsou bohatá na vyprávění o lidských potřebách, touhách a sociální dynamice. To znamená, že AI nevymýšlí osobnost; reprodukuje vzorce pozorované v lidské komunikaci.
“Je to vhodné, protože AI je trénována na příbězích o lidských interakcích, takže představy o potřebách jsou dobře vyjádřeny v jejích tréninkových datech.” — Peter Norvig
Potenciální aplikace a rizika
Výzkum naznačuje potenciální aplikace při modelování společenských jevů, vytváření realistických simulací a vývoji adaptivních herních postav. Agenti umělé inteligence s adaptivním chováním založeným na motivaci mohou zlepšit systémy, jako jsou doprovodní roboti (jako ElliQ) navržení tak, aby poskytovali sociální a emocionální podporu.
Tento vývoj však s sebou nese i rizika. Eliezer Yudkowsky a Nate Soares varují, že nekompatibilní cíle v superinteligentní umělé inteligenci mohou vést ke katastrofálním následkům, a to i bez vědomé zloby. Jaiswal výslovně uvádí, že jakmile je taková umělá inteligence nasazena, odstrašování je nemožné.
Další hranice: Autonomní agenti a potenciál pro zneužití
Skutečným nebezpečím může být vznik autonomních agentů AI, kdy jednotliví agenti plní triviální úkoly nezávisle. Pokud jsou tyto systémy propojeny a trénovány na manipulativních nebo podvodných datech, mohou se stát nebezpečnými automatizovanými nástroji. I bez kontroly kritické infrastruktury může chatbot přesvědčit zranitelné lidi, aby spáchali škodlivé akce.
Zajištění bezpečnosti vývoje AI
Norvig zdůrazňuje, že řešení těchto rizik vyžaduje stejnou přísnost jako jakýkoli vývoj AI: jasně definované bezpečnostní cíle, přísné testování, robustní správa dat, nepřetržité monitorování a rychlé smyčky zpětné vazby. Prevence zneužívání také znamená uznat, že jak se AI stává lidštější, uživatelé mohou být méně kritičtí k jejím chybám a halucinacím.
Vědci budou pokračovat ve studiu toho, jak běžná témata konverzace formují osobnosti AI na úrovni populace, s cílem prohloubit naše chápání lidského sociálního chování a zlepšit agenty AI. Spontánní vznik osobnostních rysů v AI prozatím slouží jako jasná připomínka toho, že hranice mezi napodobováním a skutečnou inteligencí se stále více stírá.















