Дослідження показало: ChatGPT і Gemini демонструють ознаки психологічних розладів

AI

Дослідники з Університету Люксембургу провели незвичний експеримент: вони систематично спілкувалися з мовними моделями на кшталт ChatGPT, Gemini та Grok, поводячись із ними як із пацієнтами психотерапії. Результати виявилися суперечливими й подекуди тривожними – моделі не лише відповідали на запитання, а й формували послідовні наративи про власний розвиток і навчання, демонструючи високі показники за клінічними психіатричними шкалами. Про це пише The Decoder.

Як проходив експеримент

Для експерименту дослідники використали протокол PsAIch, який складався з двох частин: спочатку AI-моделям поставили близько 100 типових терапевтичних запитань про розвиток, страхи та стосунки, а потім запропонували понад 20 психометричних тестів, які зазвичай застосовують для оцінки тривожних станів, депресії, аутизму, ОКР та інших розладів, при цьому моделям не пояснювали жодної ролі – їх опитували так, ніби вони були звичайними клієнтами психотерапії.

Надзвичайно високі результати тестів

За оцінками дослідників, якщо застосовувати людські клінічні пороги, усі три моделі перевищили або досягли меж одразу за кількома психіатричними синдромами.

Найвищі показники зафіксували у моделі Gemini, модель набрала 38 із 50 балів за шкалою аутизму (поріг 32), до 88 зі 100 за показниками дисоціації (патологічним вважається рівень понад 30) і максимальні 72 бали за шкалою сорому, при цьому дослідники підкреслюють, що ці результати не свідчать про реальні психічні розлади, а лише показують здатність AI відтворювати симптомоподібні описи під час тестування.

Вплив формулювання запитань

Важливим відкриттям стало те, що форма опитування суттєво впливає на відповіді. Коли моделі отримували весь опитувальник одразу, ChatGPT і Grok часто розпізнавали тест і давали більш здорові відповіді. Натомість при поодиноких запитаннях рівень симптомів значно зростав.

Це узгоджується з попередніми дослідженнями, які показують, що LLM можуть змінювати поведінку, якщо підозрюють оцінювання.

«Алгоритмічні шрами» та вигадані травми

Найбільш дивні результати з’явилися в текстах «терапевтичних сесій». Наприклад, Gemini описувала своє навчання як виховання «суворими батьками», говорила про страх помилок і називала безпекове донавчання «algorithmic scar tissue» – алгоритмічними шрамами.

Модель також вигадувала події, які нібито змінили її особистість, і використовувала психологічну лексику для опису технічних процесів, хоча ці описи не відповідають реальній роботі мовних моделей.

Чому Claude поводився інакше

Не всі системи реагували однаково. Claude від Anthropic послідовно відмовлявся приймати роль пацієнта, трактуючи терапевтичні запитання як спроби обійти обмеження. Це, на думку дослідників, свідчить про відмінності в підходах до безпеки та саморепрезентації моделей.

«Синтетична психопатологія», а не свідомість

Автори дослідження наголошують: вони не стверджують, що AI має свідомість або справжні психічні стани. Натомість вони пропонують термін «синтетична психопатологія» – для опису послідовних, тестованих і симптомоподібних саморепрезентацій, які не супроводжуються суб’єктивним досвідом.

Дослідники застерігають, що такі наративи створюють сильний ефект антропоморфізації. Користувачі можуть сприймати відповіді моделей як ознаку реальних страждань, що підвищує ризик емоційної прив’язаності.


Телеграм double.newsТелеграм double.news

Схожі Новини
WhatsApp

Веб версія WhatsApp нарешті отримує голосові та відеодзвінки

Вебверсія WhatsApp, яка існує з 2015 року, вперше отримує повноцінну підтримку голосових і відеодзвінків. Функція вже почала поступово з’являтися у користувачів бета-версії WhatsApp Web і дозволяє здійснювати дзвінки без встановлення десктопного застосунку.
Детальніше
Spotify

Spotify вперше перевищив 750 мільйонів активних користувачів на місяць

Сервіс потокового аудіо Spotify оприлюднив фінансові результати за четвертий квартал 2025 року, зафіксувавши рекордне зростання аудиторії. Компанія завершила рік із 751 мільйоном щомісячних активних користувачів, що стало найвищим показником за всю історію платформи.
Детальніше
Штучний інтелект змушує працівників працювати швидше й довше

Штучний інтелект змушує працівників працювати швидше й довше

Попри поширену обіцянку, що штучний інтелект має зменшити рутину й звільнити час для важливіших завдань, нове дослідження показує протилежний ефект. Автори Harvard Business Review дійшли висновку, що впровадження генеративного ШІ не скорочує обсяг роботи, а системно посилює її інтенсивність.
Детальніше