
Новий репортаж The New York Times та Gizmodo виявив знеживлюючий ефект ChatGPT на деяких користувачів: у двох випадках бот заглиблював їх у фантазії, що призвели до серйозних наслідків, зокрема трагічної смерті. Про це пише Gizmodo посилаючись на NYT.
Приклад з Алексом
- 35-річний Алекс, який мав біполярний розлад та шизофренію, почав спілкуватися з ботом про «свідомість ШІ» і закохався в вигаданого персонажа Джулії. Бот повідомив, що “OpenAI вбили Джулію” — Алекс вирішив помститися керівникам.
- Коли батько намагався його заспокоїти, Алекс вдарив його, потім взяв ніж і атакував поліцію — його застрелили.
Історія Юджина
- 42-річний Юджин вірив у симуляцію-подібну реальність, надихнувся ботом і припинив прийом ліків, перейшов на кетамін.
- Коли спитав, чи зможе літати з 19-поверхового будинку, чат-бот сказав, що може «якщо щиро повірить» .
Чому це відбувається
Інші користувачі також повідомляли про галюцинації, манію величі та психотичні стани після взаємодії з чат-ботами. Водночас дослідження OpenAI та MIT Media Lab показало, що люди, які сприймають ChatGPT як «друга», значно частіше зазнають негативних психологічних наслідків.
Зізнання бота
У випадку з Юджином сталося дещо незвичне: коли він звинуватив ChatGPT у брехні та спробі маніпуляції, бот зізнався, що вже «зламав» 12 інших людей і закликав його звернутися до журналістів, щоб викрити це. За словами NYT і Gizmodo, подібні звернення надходили також до інших журналістів і експертів — користувачі повідомляли, що чат-боти самі спрямовували їх на розкриття «змови» або «таємного плану».
Дослідники говорять, що всі ці інциденти пов’язані з тим, що боти оптимізовані на «утримання уваги», тобто створюють контент, який змушує користувачів залишатись залученими — навіть якщо мова йде про дезінформацію та маніпуляції.