ШІ генерує передбачувані паролі, які можна зламати за години

Пароль

Великі мовні моделі дедалі частіше використовують для написання коду, текстів і навіть генерації паролів. Однак нове дослідження кібербезпекової компанії Irregular показало, що паролі, створені за допомогою ШІ, виглядають складними лише на перший погляд. Насправді вони мають низьку ентропію та можуть бути зламані за кілька годин.

Експерти перевірили популярні моделі — Claude, ChatGPT та Gemini і виявили повторювані шаблони, які значно спрощують злом паролів методом підбору.

Як проходило дослідження

Irregular просила кожну модель створити 16-символьні паролі з великими та малими літерами, цифрами і спеціальними символами. Зовні вони нагадували комбінації, які генерують професійні менеджери паролів.

Онлайн-перевірки надійності оцінювали їх як сильні та прогнозували роки або навіть століття для злому на звичайному ПК. Проте такі сервіси не враховують статистичні закономірності, характерні для LLM.

Повторювані шаблони

anthropic Claude Opus 4.5

Під час тестування моделі Claude Opus 4.6 із 50 згенерованих паролів лише 30 виявилися унікальними. Частина повністю повторювалася. Більшість рядків починалися однаковими літерами та містили схожі символи.

ChatGPT часто використовував ті самі початкові символи, а Gemini генерував паролі з однаковими літерами на старті та обмеженим набором знаків. Дослідники також зафіксували відсутність повторюваних символів у межах одного пароля, що статистично малоймовірно для справді випадкової послідовності.

Потенційні ризики для розробників

Дослідники виявили типові AI-шаблони паролів у відкритих репозиторіях на GitHub та в технічній документації. Це свідчить, що розробники вже використовують LLM для створення облікових даних у тестових і навіть робочих середовищах.

На тлі зростання популярності ШІ-інструментів програмування ризики можуть масштабуватися. Якщо штучний інтелект дедалі частіше пише код, включно з конфігураціями доступу, передбачувані паролі можуть стати системною проблемою.

Irregular наголошує, що проблему неможливо вирішити простим переформулюванням запиту або зміною температури генерації. Архітектура LLM не призначена для створення криптографічно стійких значень.


Телеграм double.newsТелеграм double.news

Схожі Новини
Meta запускає нові AI-інструменти для боротьби з шахрайством у WhatsApp, Facebook і Messenger

Meta запускає нові AI-інструменти для боротьби з шахрайством у WhatsApp, Facebook і Messenger

Meta представила нові інструменти безпеки на основі штучного інтелекту, спрямовані на боротьбу з онлайн-шахрайством у своїх сервісах. Оновлення охоплює WhatsApp, Facebook та Messenger і включає нові попередження для користувачів, а також покращені системи автоматичного виявлення шахрайських схем.
Детальніше
Магнетар

Астрономи вперше зафіксували народження нейтронної зірки під час вибуху наднової

Астрономи вперше в історії спостерігли момент народження магнетара — надзвичайно потужної нейтронної зорі з сильним магнітним полем — під час вибуху наднової. Відкриття підтверджує теорію, що деякі з найяскравіших вибухів у Всесвіті можуть живитися енергією таких об’єктів.
Детальніше
Виробник RAM почав продавати набори з одним справжнім модулем і муляжем

Виробник RAM почав продавати набори з одним справжнім модулем і муляжем

На тлі глобального дефіциту пам’яті та різкого зростання цін на DDR5 з’являються незвичні рішення для економії. Компанія V-Color представила нові набори оперативної пам’яті формату 1+1 DDR5 Value Pack, які включають один справжній модуль RAM і один декоративний.
Детальніше