
Як повідомляє TechCrunch посилаючись на публікацї у блозі, опублікованому 19 серпня, Сулейман розкритикував новий напрямок досліджень, відомий у Кремнієвій долині як “AI welfare” — вивчення можливості виникнення у моделей суб’єктивних відчуттів і потенційних «прав ШІ».
Сулейман вважає, що вивчення «свідомості ШІ» не лише передчасне, а й шкідливе, адже воно може посилювати небезпечну емоційну прив’язаність людей до чат-ботів і створювати нові лінії поділу в суспільстві, яке й так розділене питаннями ідентичності та прав. «Ми маємо створювати ШІ для людей, а не як людину», — підкреслив він.
Великі компанія активно досліджують «свідомості AI»

Позиція Microsoft різко контрастує з підходом інших гравців індустрії. Наприклад, Anthropic запустила спеціальну дослідницьку програму, присвячену темі AI welfare, щоб глибше вивчати можливість появи «свідомості» у моделей.
Свою зацікавленість у темі виявили також OpenAI та Google DeepMind, які активно залучають науковців для дослідження питань когніції та свідомості штучного інтелекту. Це свідчить про зростання уваги до проблематики на найвищому рівні в галузі.
Окремо варто відзначити дослідницьку групу Eleos, яка у 2024 році разом із науковцями NYU, Stanford та Оксфорду опублікувала роботу “Taking AI Welfare Seriously”. У ній автори закликали перестати сприймати це як наукову фантастику й почати системно вивчати питання «благополуччя ШІ».
На думку представниці Eleos, колишньої співробітниці OpenAI Ларісси Скіаво, позиція Сулеймана надто однобока. Вона підкреслила, що можна одночасно займатися мінімізацією ризиків для людей і паралельно досліджувати можливу «свідомість» моделей.