Голова Microsoft AI назвав вивчення «свідомості ШІ» небезпечним

Copilot

Як повідомляє TechCrunch посилаючись на публікацї у блозі, опублікованому 19 серпня, Сулейман розкритикував новий напрямок досліджень, відомий у Кремнієвій долині як “AI welfare” — вивчення можливості виникнення у моделей суб’єктивних відчуттів і потенційних «прав ШІ».

Сулейман вважає, що вивчення «свідомості ШІ» не лише передчасне, а й шкідливе, адже воно може посилювати небезпечну емоційну прив’язаність людей до чат-ботів і створювати нові лінії поділу в суспільстві, яке й так розділене питаннями ідентичності та прав. «Ми маємо створювати ШІ для людей, а не як людину», — підкреслив він.

Великі компанія активно досліджують «свідомості AI»

OpenAI

Позиція Microsoft різко контрастує з підходом інших гравців індустрії. Наприклад, Anthropic запустила спеціальну дослідницьку програму, присвячену темі AI welfare, щоб глибше вивчати можливість появи «свідомості» у моделей.

Свою зацікавленість у темі виявили також OpenAI та Google DeepMind, які активно залучають науковців для дослідження питань когніції та свідомості штучного інтелекту. Це свідчить про зростання уваги до проблематики на найвищому рівні в галузі.

Окремо варто відзначити дослідницьку групу Eleos, яка у 2024 році разом із науковцями NYU, Stanford та Оксфорду опублікувала роботу “Taking AI Welfare Seriously”. У ній автори закликали перестати сприймати це як наукову фантастику й почати системно вивчати питання «благополуччя ШІ».

На думку представниці Eleos, колишньої співробітниці OpenAI Ларісси Скіаво, позиція Сулеймана надто однобока. Вона підкреслила, що можна одночасно займатися мінімізацією ризиків для людей і паралельно досліджувати можливу «свідомість» моделей.


Телеграм double.newsТелеграм double.news

Схожі Новини
Ілон Маск

AI-бум додав понад $500 млрд до статків техномільярдерів США у 2025 році

Стрімке зростання інтересу інвесторів до компаній у сфері штучного інтелекту суттєво змінило баланс багатства серед найбагатших людей світу. Лише за 2025 рік AI-бум додав понад пів трильйона доларів до сукупних статків провідних американських технологічних магнатів.
Детальніше
Китай готує жорсткі правила для людиноподібних AI-систем

Китай готує жорсткі правила для людиноподібних AI-систем

Китайська влада оприлюднила проєкт нових регуляторних вимог, спрямованих на контроль використання штучного інтелекту, який імітує поведінку людини. Ініціатива є частиною ширшої стратегії Пекіна щодо розвитку AI як ключової галузі економіки, водночас посилюючи державний нагляд за безпекою та етичними аспектами технологій.
Детальніше
ChatGPT

ChatGPT може почати просувати спонсорований контент у відповідях

OpenAI розглядає можливість інтеграції реклами безпосередньо у відповіді ChatGPT. За даними джерел, ідеться не про класичні банери, а про пріоритетне відображення спонсорованого контенту в результатах роботи мовної моделі.
Детальніше