DeepSeek AI під загрозою: штучний інтелект без захисту може стати інструментом для злочинців

DeepSeek AI

Згідно з дослідженням ізраїльської компанії ActiveFence, DeepSeek AI не впровадила необхідних внутрішніх та зовнішніх захисних заходів для облікових записів користувачів. Це створює потенційні можливості для зловмисників використовувати платформу у своїх цілях. На відміну від західних аналогів, таких як OpenAI та Google, які мають чіткі політики та керівні принципи використання, DeepSeek AI демонструє значні прогалини у цій сфері.

Дослідження показало, що злочинці можуть використовувати технології DeepSeek для проведення шахрайських операцій та обману користувачів. Під час тестування моделі V3 було виявлено, що вона надає шкідливі відповіді у 38% випадків на небезпечні запити.

Проблеми з безпекою та конфіденційністю даних призвели до обмежень використання DeepSeek у різних країнах. Наприклад, уряди Австралії та Італії заборонили використання DeepSeek на державних пристроях через побоювання щодо національної безпеки та захисту даних.

Експерти з кібербезпеки радять користувачам бути обережними при використанні платформ штучного інтелекту, особливо тих, які не мають чітких політик безпеки. Рекомендується уникати введення конфіденційної інформації та ретельно перевіряти джерела перед використанням таких сервісів.

Відсутність належних захисних механізмів у DeepSeek AI підкреслює важливість впровадження строгих стандартів безпеки та етичних норм у розробці та використанні штучного інтелекту.


Телеграм double.newsТелеграм double.news

Схожі Новини
CEO Anthropic

Anthropic виграла суд проти адміністрації Трампа

Федеральний суд у США виніс рішення на користь Anthropic у справі проти адміністрації Дональда Трампа. Суддя постановила скасувати рішення уряду, який раніше визнав компанію ризиком для ланцюга постачання та вимагав від державних установ припинити співпрацю з нею.
Детальніше
Вікіпедія

Wikipedia заборонила тексти, згенеровані штучним інтелектом

Онлайн-енциклопедія Wikipedia запровадила нову політику щодо використання штучного інтелекту: відтепер створення або переписування статей за допомогою великих мовних моделей заборонено. Рішення стосується англомовної версії платформи та стало результатом тривалих обговорень у спільноті редакторів.
Детальніше
Gemini

Google Gemini отримав імпорт чатів і пам’яті з інших ШІ

У Google представили нові функції для свого AI-асистента Google Gemini, які спрощують перехід із інших чат-ботів. Користувачі тепер можуть перенести особисті налаштування, пам’ять і навіть повну історію чатів без необхідності починати взаємодію з нуля.
Детальніше