
Згідно з дослідженням ізраїльської компанії ActiveFence, DeepSeek AI не впровадила необхідних внутрішніх та зовнішніх захисних заходів для облікових записів користувачів. Це створює потенційні можливості для зловмисників використовувати платформу у своїх цілях. На відміну від західних аналогів, таких як OpenAI та Google, які мають чіткі політики та керівні принципи використання, DeepSeek AI демонструє значні прогалини у цій сфері.
Дослідження показало, що злочинці можуть використовувати технології DeepSeek для проведення шахрайських операцій та обману користувачів. Під час тестування моделі V3 було виявлено, що вона надає шкідливі відповіді у 38% випадків на небезпечні запити.
Проблеми з безпекою та конфіденційністю даних призвели до обмежень використання DeepSeek у різних країнах. Наприклад, уряди Австралії та Італії заборонили використання DeepSeek на державних пристроях через побоювання щодо національної безпеки та захисту даних.
Експерти з кібербезпеки радять користувачам бути обережними при використанні платформ штучного інтелекту, особливо тих, які не мають чітких політик безпеки. Рекомендується уникати введення конфіденційної інформації та ретельно перевіряти джерела перед використанням таких сервісів.
Відсутність належних захисних механізмів у DeepSeek AI підкреслює важливість впровадження строгих стандартів безпеки та етичних норм у розробці та використанні штучного інтелекту.