
Попри зростаючі побоювання щодо AI загроз у сфері кібербезпеки, Google виявила, що згенеровані ШІ зразки шкідливого ПЗ не становлять реальної небезпеки. Аналіз п’яти нових сімейств “AI-вірусів” показав: жоден із них не може обійти базові системи захисту, а їхній рівень суттєво поступається професійно створеним вірусам, пише ArsTechnica.
Що виявила Google
У звіті, оприлюдненому Google, проаналізували п’ять зразків шкідливого ПЗ, створених за допомогою генеративного штучного інтелекту: PromptLock, FruitShell, PromptFlux, PromptSteal та QuietVault.
Результати дослідження показали, що всі вони мають обмежений функціонал, легко виявляються навіть простими антивірусними рішеннями й не становлять суттєвої загрози. Усі зразки повторюють відомі техніки старих вірусів і не демонструють жодних проривів у методах обходу захисту.
Приклад: “PromptLock” — «перший AI-вимагач»

Один із найпомітніших зразків, PromptLock, став частиною академічного експерименту, який досліджував, чи може ШІ автономно планувати й виконувати кібератаки. Однак дослідники з’ясували, що програма не мала ключових властивостей реального ransomware — не забезпечувала стійкість, не поширювалася мережею та не приховувала свою активність. По суті, це був лише демонстраційний експеримент, а не дієвий інструмент атаки.

