DeepSeek AI під загрозою: штучний інтелект без захисту може стати інструментом для злочинців

DeepSeek AI

Згідно з дослідженням ізраїльської компанії ActiveFence, DeepSeek AI не впровадила необхідних внутрішніх та зовнішніх захисних заходів для облікових записів користувачів. Це створює потенційні можливості для зловмисників використовувати платформу у своїх цілях. На відміну від західних аналогів, таких як OpenAI та Google, які мають чіткі політики та керівні принципи використання, DeepSeek AI демонструє значні прогалини у цій сфері.

Дослідження показало, що злочинці можуть використовувати технології DeepSeek для проведення шахрайських операцій та обману користувачів. Під час тестування моделі V3 було виявлено, що вона надає шкідливі відповіді у 38% випадків на небезпечні запити.

Проблеми з безпекою та конфіденційністю даних призвели до обмежень використання DeepSeek у різних країнах. Наприклад, уряди Австралії та Італії заборонили використання DeepSeek на державних пристроях через побоювання щодо національної безпеки та захисту даних.

Експерти з кібербезпеки радять користувачам бути обережними при використанні платформ штучного інтелекту, особливо тих, які не мають чітких політик безпеки. Рекомендується уникати введення конфіденційної інформації та ретельно перевіряти джерела перед використанням таких сервісів.

Відсутність належних захисних механізмів у DeepSeek AI підкреслює важливість впровадження строгих стандартів безпеки та етичних норм у розробці та використанні штучного інтелекту.


Телеграм double.newsТелеграм double.news

Схожі Новини
Windows Update

Microsoft призупинила оновлення Windows 11 через помилку встановлення

Microsoft призупинила розповсюдження оновлення KB5079391 для Windows 11 після масових скарг користувачів. Апдейт виявився проблемним — система не може завершити його встановлення через технічну помилку.
Детальніше
ChatGPT

ШІ та психічні ризики: як ChatGPT спричинив кризу і фінансові втрати

Використання чат-ботів на базі штучного інтелекту відкриває нові можливості, але водночас несе потенційні ризики для психічного здоров’я. Історія користувача з Амстердама демонструє, як взаємодія з ChatGPT може призвести до серйозних наслідків — від фінансових втрат до особистої кризи.
Детальніше