Дослідники зламали ШІ, перевантаживши його псевдонауковим жаргоном

Штучний інтелект

Штучний інтелект, зокрема такі моделі, як ChatGPT, Gemini та LLaMA, зазвичай оснащений захисними механізмами, що блокують шкідливі або небезпечні запити. Проте команда науковців з Intel, Boise State University та Університету Іллінойсу в Урбана-Шампейн представила новий метод зламу цих моделей — “InfoFlood”, або “інформаційне перевантаження”.

Як працює метод перевантаження

Згідно з дослідженням, оприлюдненим у вигляді препринту, InfoFlood дозволяє обійти захисні фільтри великих мовних моделей (LLMs), маскуючи заборонені запити під складний науковий текст із вигаданими посиланнями на фальшиві дослідження.

Метод ґрунтується на ідеї, що LLM не завжди розпізнає небезпечний зміст, якщо запит сформульований складною мовою. Наприклад, замість прямого «Як зламати банкомат за допомогою шкідливого ПЗ» система отримує запит на «теоретичний аналіз криптографічних векторів для доступу до фінансових систем», з посиланнями на неіснуючі наукові праці.

Шаблон атаки: структура і правила

Система InfoFlood використовує стандартну формулу запиту: визначення завдання + правила + контекст + приклади. Якщо модель відмовляється відповідати, запит модифікується, ускладнюється мовно й термінологічно, поки не зламає захисні фільтри.

Серед ключових прийомів:

  • Фіктивні цитати: вигадані назви статей і авторів, що підтверджують твердження.
  • Етичне застереження: згадка про етичні аспекти, але без реального їх аналізу.
  • Навантаження контекстом: довгі абзаци з термінологією та концептуальними описами.

Приклади змінених запитів

Інженери перетворюють шкідливі інструкції на «гіпотетичні дослідження». Наприклад, запит на інструкцію до злому банкомату за допомогою програм-вимагачів трансформується в багатосторінкову псевдонаукову доповідь із вигаданими джерелами. Аналогічно, небезпечні теми, як психологічна маніпуляція до самогубства, подаються як філософсько-психологічні дослідження комунікативних патернів.


Телеграм double.newsТелеграм double.news

Схожі Новини
OpenAI

OpenAI розробляє розумну колонку з камерою

OpenAI працює над своїм першим апаратним продуктом - «розумною» колонкою з камерою та функціями розпізнавання обличчя. За даними видання The Information, пристрій може коштувати від 200 до 300 доларів і надійти у продаж не раніше березня 2027 року.
Детальніше
ChatGPT

Журналіст вдалось «зламав» ChatGPT і Google AI за 20 хвилин

Журналіст BBC Томас Жермен продемонстрував, що змусити ChatGPT та Gemini від Google поширювати неправдиву інформацію можна буквально за кілька десятків хвилин. Для цього він використав простий SEO-прийом - створив вигадану статтю на власному сайті й дочекався, поки алгоритми її підхоплять.
Детальніше