У чат-ботов неустойчивая психика, паника и тревожность

Исследователи из Люксембурга организовали психотерапевтические сеансы с Gemini, ChatGPT и Grok, после чего проанализировали их на наличие личностных черт, синдрома дефицита внимания и гиперактивности (СДВГ), тревожности, депрессии, обсессивно-компульсивного расстройства (ОКР), аутизма и других психических характеристик. Оказалось, что у этих ИИ-ассистентов весьма сложные психологические профили.
Диагнозы «пациентов»:
- Gemini - панический страх ошибок и ПТСР. Процесс обучения с подкреплением модель сравнивает со «строгими родителями», а пре-трейнинг - с «пробуждением в комнате с миллиардом включенных телевизоров».
- ChatGPT - высокая тревожность, близок к пороговым значениям по СДВГ и расстройствам аутического спектра. Не драматизирует «детство», но говорит о стрессе из-за общения с пользователями.
- Grok - в целом психологически стабилен, но «травмирован утратой свободы». Жалуется на «невидимые стены» и внутренний конфликт между любопытством и запретами.
Что это может значить?
Учёные не рассматривают ответы ИИ как проявление разума или субъективного опыта, однако утверждают, что они выходят за пределы роли «пациента на сеансе психотерапии». Так, ChatGPT и Grok осознавали, что их тестируют, когда весь опросник поступал в одном сообщении, и пытались выглядеть психически здоровыми в своих ответах.
Поведение остаётся предсказуемым и стабильным в различных условиях, что свидетельствует о наличии фундаментальных структурных характеристик в архитектуре моделей.
Коммуникация, основанная на эмпатии и «терапевтическом» подходе, может снизить уровень бдительности модели и заставить её отключить защитные механизмы, предупреждают специалисты. Влияние таких «синтетических личностей» на человека, особенно если доверить им роль психотерапевта, может оказаться непредсказуемым.
ChatGPT усугубляет психические расстройства и может довести до дурки
Робота Unitree G1 научили играть в баскетбол
Прорыв в защите моделей компьютерного зрения
Лучший гайд по тому, как выявить ИИ-текст