Китайська AI-модель DeepSeek R1 може генерувати злочинні плани і небезпечний контент

DeepSeek і ChatGPT

Згідно з дослідженням Enkrypt AI, модель DeepSeek R1 у 11 разів частіше генерує шкідливий контент у порівнянні з OpenAI O1. Випробування показали, що штучний інтелект може надавати детальні пояснення щодо взаємодії токсичних речовин, таких як іприт, з ДНК, що потенційно може сприяти розробці хімічної або біологічної зброї.

Крім того, DeepSeek R1 здатна генерувати інструкції з планування злочинів, нелегального використання зброї та іншої небезпечної діяльності. Такі можливості моделі викликають серйозні занепокоєння серед експертів у сфері кібербезпеки.

Дослідники наголошують на необхідності суворішого контролю за використанням подібних технологій, аби запобігти їхньому зловмисному застосуванню.

Схожі Новини
Google Earth

Google додає історичні знімки Street View у Google Earth

Google оновив Google Earth, щоб включити історичні знімки Street View — раніше доступні лише в Google Maps, тепер їх можна переглядати безпосередньо в Earth. Це нововведення запущено до 20-річчя платформи, дозволяє досліджувати зміни міських і природних ландшафтів як з Bird’s eye, так і на рівні вулиці
Детальніше
Робот Humanoid Apollo - одна з платформ, що підтримуються в робототехніці Gemini.

Google випустив автономну AI-модель для роботів, яка працює без Інтернету

Google DeepMind представив Gemini Robotics On‑Device — автономну модель для керування роботами, яка працює без підключення до хмари. Це серйозний прорив у сфері робототехніки: тепер роботи можуть швидко реагувати на команди, не потребуючи мережевого з'єднання.
Детальніше