
Згідно з дослідженням Enkrypt AI, модель DeepSeek R1 у 11 разів частіше генерує шкідливий контент у порівнянні з OpenAI O1. Випробування показали, що штучний інтелект може надавати детальні пояснення щодо взаємодії токсичних речовин, таких як іприт, з ДНК, що потенційно може сприяти розробці хімічної або біологічної зброї.
Крім того, DeepSeek R1 здатна генерувати інструкції з планування злочинів, нелегального використання зброї та іншої небезпечної діяльності. Такі можливості моделі викликають серйозні занепокоєння серед експертів у сфері кібербезпеки.
Дослідники наголошують на необхідності суворішого контролю за використанням подібних технологій, аби запобігти їхньому зловмисному застосуванню.