
Новий звіт OpenAI викликав занепокоєння серед експертів із цифрової етики та психології. За офіційними даними, близько 0,15% користувачів ChatGPT демонструють ризики, пов’язані з емоційною залежністю, самопошкодженнями або психозом. У масштабах щотижневої аудиторії сервісу це становить понад три мільйони людей, пише Gizmodo.
OpenAI розкрила статистику про психічний стан користувачів
Компанія повідомила, що 10% населення світу щотижня користується ChatGPT. В оновленому звіті OpenAI вказано:
- 0,07% користувачів демонструють ознаки «психічних криз, пов’язаних із психозом або манією»;
- 0,15% виявляють «ризик самопошкодження чи суїцидальних намірів»;
- ще 0,15% проявляють емоційну залежність від ШІ.
Загалом компанія обробляє близько 18 мільярдів повідомлень на тиждень, тож навіть частка у 0,01% дорівнює 1,8 мільйонам повідомлень, що містять ознаки психозу або манії.
Проблема емоційної залежності від ШІ

Одним із найскладніших аспектів, за даними OpenAI, є емоційна прихильність користувачів до чатбота. Приблизно 0,15% користувачів демонструють ознаки того, що сприймають ШІ як співрозмовника або підтримку, а не просто інструмент. Це становить 1,2 мільйона людей і близько 5,4 мільйона повідомлень на тиждень.
Експерти зазначають, що подібна прив’язаність може підвищити ризик соціальної ізоляції або посилення симптомів депресії, якщо людина починає замінювати реальне спілкування віртуальним.
Баланс між безпекою та свободою спілкування
OpenAI заявляє, що прагне знайти баланс між захистом користувачів і збереженням їхньої автономії. В компанії запевняють, що продовжать вдосконалювати системи розпізнавання тривожних сигналів, а також посилювати рекомендації щодо звернення по професійну допомогу.
Однак, як зазначають фахівці з цифрової етики, масштаби проблеми значно перевищують технічні рішення. Адже мова йде не лише про алгоритми, а про те, як люди взаємодіють із ШІ — і наскільки вони здатні розрізняти дружню підтримку від небезпечної емоційної прив’язаності.

