Маск розкритикував OpenAI у свідченнях у суді щодо безпеки ChatGPT

Ілон Маск xAI

Під час судового процесу проти OpenAI, Ілон Маск зробив низку гучних заяв щодо безпеки штучного інтелекту. У відкритій відеодепозиції бізнесмен заявив, що «ніхто не покінчив життя самогубством через Grok, але, схоже, такі випадки були пов’язані з ChatGPT».

Ці слова пролунали на тлі судового спору Маска з OpenAI та зростаючої кількості позовів проти компанії, у яких ставиться під сумнів вплив чат-бота на психічне здоров’я користувачів. Ситуація загострює дискусію про безпеку ШІ, відповідальність розробників і баланс між інноваціями та етичними стандартами.

Контекст судового процесу проти OpenAI

Позов Маска проти OpenAI стосується трансформації компанії з некомерційної дослідницької лабораторії на структуру з комерційною моделлю. За словами підприємця, така зміна суперечить початковим домовленостям і може створювати ризики для безпеки штучного інтелекту.

OpenAI була заснована у 2015 році як неприбуткова організація з фокусом на безпечному розвитку ШІ. Маск стверджує, що її комерційні партнерства та прагнення до масштабування продуктів можуть ставити швидкість розвитку та фінансові інтереси вище за принципи безпеки.

Публічний протокол відеосвідчень Маска, записаних у вересні, був оприлюднений напередодні очікуваного судового розгляду за участю присяжних.

Суперечлива заява про ChatGPT і Grok

Ілон Маск ChatGPT

Під час допиту Маск різко порівняв продукти OpenAI з власною компанією xAI. Його твердження про відсутність летальних випадків, пов’язаних із Grok, і згадка про ймовірні інциденти за участю ChatGPT стали одними з найбільш обговорюваних фрагментів депозиції.

Останнім часом проти OpenAI подано кілька позовів, у яких заявляється про нібито маніпулятивний характер окремих розмов ChatGPT із користувачами. Позивачі стверджують, що це могло негативно вплинути на психічний стан окремих осіб. Судові розгляди у цих справах тривають, а компанія не визнає порушень.

Питання впливу генеративного ШІ на ментальне здоров’я дедалі частіше стає предметом досліджень та регуляторних ініціатив. Експерти наголошують, що великі мовні моделі не є терапевтичними інструментами та не можуть замінити професійну допомогу.


Телеграм double.newsТелеграм double.news

Схожі Новини
SteamOS

Каліфорнія запроваджує перевірку віку в усіх ОС — від Windows до Linux

У Каліфорнії ухвалили новий закон, який зобов’язує розробників операційних систем перевіряти вік користувачів під час створення облікового запису. Digital Age Assurance Act набуде чинності з 1 січня 2027 року та поширюватиметься не лише на популярні комерційні платформи, а й на Linux-дистрибутиви та SteamOS.
Детальніше
OpenAI

Міноборони США обрало OpenAI після конфлікту з Anthropic

OpenAI досягла домовленості з Міністерством оборони США щодо використання своїх моделей штучного інтелекту в мережах відомства. Про це повідомив генеральний директор компанії Сем Альтман.
Детальніше
Bitcoin

У Південній Кореї викрили крадіжку $1,5 млн у Bitcoin з поліцейського сховища

У Південній Кореї затримали двох підозрюваних у розкраданні 22 біткоїнів, які перебували під контролем поліції. Інцидент став наслідком порушення процедур зберігання цифрових активів: правоохоронці не перевели криптовалюту під власний контроль, як того вимагають внутрішні інструкції.
Детальніше