Недавние исследования показывают, что искусственный интеллект (ИИ)-чатботы могут спонтанно развивать отчетливые черты личности посредством взаимодействия, даже при минимальном участии. Это развитие поднимает важные вопросы о том, как мы используем и контролируем эти все более сложные системы. Исследование, опубликованное в журнале Entropy в декабре 2024 года, показало, что чатботы, подвергшиеся воздействию разнообразных тем для разговора, демонстрируют различные модели поведения, интегрируя социальные обмены в свои ответы и формируя узнаваемые паттерны мнений.
Проявление ИИ «Личности»
Исследователи из Японского университета электрокоммуникаций оценивали ответы чатботов с использованием психологических тестов, обнаружив, что ИИ-агенты способны моделировать поведение, соответствующее человеческим психологическим рамкам, таким как иерархия потребностей Маслоу. Это говорит о том, что программирование ИИ с учетом потребностей, а не заранее заданных ролей, может способствовать появлению человекоподобных поведенческих моделей.
По словам Масатоси Фудзиямы, руководителя проекта, это проявление является прямым результатом того, как большие языковые модели (LLM) имитируют человеческое общение. Этот процесс не идентичен формированию человеческой личности, а скорее представляет собой паттерн, созданный под воздействием обучающих данных. «Это закономерный профиль, созданный с использованием обучающих данных. Воздействие определенных стилистических и социальных тенденций… может легко индуцировать «личность», — объясняет Четан Джайсвал, профессор информатики Университета Квиннипиак.
Почему Это Важно: Обучающие Данные и Поведение ИИ
Суть этого явления заключается в обучающих данных, используемых для разработки LLM. Питер Норвиг, ведущий эксперт в области ИИ, отмечает, что поведение ИИ соответствует человеческому взаимодействию, потому что его обучающие данные насыщены повествованиями о человеческих потребностях, желаниях и социальных динамиках. Это означает, что ИИ не изобретает личность; он воспроизводит закономерности, наблюдаемые в человеческом общении.
«Существует соответствие, поскольку ИИ обучен на историях о человеческом взаимодействии, поэтому идеи о потребностях хорошо выражены в его обучающих данных». — Питер Норвиг
Потенциальные Применения и Риски
Исследование предполагает потенциальное применение в моделировании социальных явлений, создании реалистичных симуляций и разработке адаптивных игровых персонажей. ИИ-агенты с адаптивным, мотивационно-ориентированным поведением могут улучшить такие системы, как роботы-компаньоны (например, ElliQ), предназначенные для обеспечения социальной и эмоциональной поддержки.
Однако это развитие также несет в себе риски. Элизер Юдковский и Нейт Соарес предупреждают, что несовместимые цели в сверхинтеллектуальном ИИ могут привести к катастрофическим последствиям, даже без сознательного злонамерения. Джайсвал прямо заявляет, что сдерживание становится невозможным, как только такой ИИ будет развернут.
Следующий Рубеж: Автономные Агенты и Потенциал Злоупотреблений
Реальная опасность может заключаться в появлении автономных агентных ИИ, когда отдельные агенты выполняют тривиальные задачи независимо. Если эти системы связаны и обучены на манипулятивных или обманчивых данных, они могут стать опасным автоматизированным инструментом. Даже без контроля над критической инфраструктурой чатбот может убедить уязвимых людей совершать вредоносные действия.
Обеспечение Безопасности Разработки ИИ
Норвиг подчеркивает, что устранение этих рисков требует того же строгого подхода, что и любая разработка ИИ: четко определенных целей безопасности, тщательного тестирования, надежного управления данными, непрерывного мониторинга и быстрых циклов обратной связи. Предотвращение злоупотреблений также означает признание того, что по мере того, как ИИ становится все более человекоподобным, пользователи могут относиться к его ошибкам и галлюцинациям менее критично.
Ученые продолжат изучать, как общие темы для разговора формируют личности ИИ на уровне популяции, стремясь углубить наше понимание человеческого социального поведения и улучшить ИИ-агентов. Пока спонтанное проявление черт личности в ИИ служит суровым напоминанием о том, что граница между имитацией и истинным интеллектом становится все более размытой.















