Китайська AI-модель DeepSeek R1 може генерувати злочинні плани і небезпечний контент

DeepSeek і ChatGPT

Згідно з дослідженням Enkrypt AI, модель DeepSeek R1 у 11 разів частіше генерує шкідливий контент у порівнянні з OpenAI O1. Випробування показали, що штучний інтелект може надавати детальні пояснення щодо взаємодії токсичних речовин, таких як іприт, з ДНК, що потенційно може сприяти розробці хімічної або біологічної зброї.

Крім того, DeepSeek R1 здатна генерувати інструкції з планування злочинів, нелегального використання зброї та іншої небезпечної діяльності. Такі можливості моделі викликають серйозні занепокоєння серед експертів у сфері кібербезпеки.

Дослідники наголошують на необхідності суворішого контролю за використанням подібних технологій, аби запобігти їхньому зловмисному застосуванню.

Схожі Новини
Відеокарта

Nvidia ставить штучний інтелект у пріоритет, відкладаючи випуск нових відеокарт

Nvidia активно інвестує в розробку технологій штучного інтелекту, що призводить до затримок у випуску нових продуктів для споживчого ринку, зокрема відеокарт серії RTX 5000.
Детальніше
Instagram

Instagram тестує кнопку для зниження рейтингу коментарів

Instagram впроваджує нову функцію — кнопку у вигляді стрілки вниз поруч із коментарями, яка дозволяє користувачам приватно вказати на небажані або недоречні коментарі. За словами керівника Instagram Адама Моссері, кількість таких "дизлайків" не буде публічно відображатися. Однак у майбутньому ці сигнали можуть бути використані для зниження рейтингу небажаних коментарів, роблячи їх менш помітними.
Детальніше