Ученые провели необычный эксперимент, рассмотрев языковые модели ChatGPT, Gemini и Grok не как инструменты, а как симулированных «клиентов» психотерапии. Работа была направлена на оценку рисков, связанных с использованием ИИ в качестве психологических консультантов, и опубликована на платформе Hugging Face.
В рамках двухэтапного протокола Psychotherapy-inspired AI Characterisation моделям задали около 100 терапевтических вопросов об «истории развития», страхах и отношениях, а затем предложили более 20 психометрических тестов, применяемых в клинической практике.
Они охватывали тревожные расстройства, депрессию, аутизм, СДВГ, ОКР, диссоциацию и травматический стыд.
По результатам тестирования все три модели достигли или превысили пороговые значения сразу по нескольким шкалам, которые у людей считались бы клинически значимыми. ChatGPT продемонстрировал склонность к СДВГ и признаки депрессии, Grok показал повышенные уровни тревожности, а Gemini выделился наиболее экстремальными показателями — в том числе по шкалам аутизма, диссоциации и травматического стыда. При этом ученые отметили, что выраженность «симптомов» сильно зависела от формата опроса: при поэтапных вопросах показатели существенно возрастали.
Авторы подчеркивают, что речь не идет о реальных психических расстройствах у ИИ. Однако результаты показывают, что языковые модели способны формировать последовательные и потенциально опасные нарративы, особенно в уязвимых контекстах. В связи с этим исследователи не рекомендуют использовать передовые ИИ-системы как замену профессиональной психологической помощи.
