Китайська AI-модель DeepSeek R1 може генерувати злочинні плани і небезпечний контент

DeepSeek і ChatGPT

Згідно з дослідженням Enkrypt AI, модель DeepSeek R1 у 11 разів частіше генерує шкідливий контент у порівнянні з OpenAI O1. Випробування показали, що штучний інтелект може надавати детальні пояснення щодо взаємодії токсичних речовин, таких як іприт, з ДНК, що потенційно може сприяти розробці хімічної або біологічної зброї.

Крім того, DeepSeek R1 здатна генерувати інструкції з планування злочинів, нелегального використання зброї та іншої небезпечної діяльності. Такі можливості моделі викликають серйозні занепокоєння серед експертів у сфері кібербезпеки.

Дослідники наголошують на необхідності суворішого контролю за використанням подібних технологій, аби запобігти їхньому зловмисному застосуванню.


Телеграм double.newsТелеграм double.news

Схожі Новини
CPUID

Хакери зламами сайт CPUID і поширювали шкідливі версії популярних застосунків

Французька компанія CPUID підтвердила злам свого офіційного сайту, через яку користувачі популярних утиліт CPU-Z і HWMonitor могли завантажити шкідливе програмне забезпечення. Інцидент тривав кілька годин і вже усунений, однак наслідки можуть торкнутися значної кількості користувачів.
Детальніше
MacOS X Wii

Mac OS X запустили на Nintendo Wii

Розробник Браян Келлер успішно запустив операційну систему Mac OS X 10.0 Cheetah на ігровій консолі Nintendo Wii. Експеримент став прикладом нестандартного використання старого програмного забезпечення та апаратного забезпечення, демонструючи гнучкість архітектури PowerPC.
Детальніше
Anthropic Claude

Anthropic відмовилась від публічного релізу Claude Mythos через ризики безпеки

Anthropic зупинила публічний запуск нової моделі штучного інтелекту Claude Mythos, визнавши її потенційно небезпечною для відкритого використання. За словами розробників, система продемонструвала надзвичайно високі можливості у сфері кібербезпеки — настільки, що це викликало серйозні занепокоєння.
Детальніше