
Аналітики NewsGuard виявили, що провідні генеративні AI-системи дедалі частіше відтворюють фейки й дезінформацію. У середньому чатботи поширюють неправдиві твердження у 35% випадків, що майже удвічі більше, ніж торік. Про це пише Forbes.
Хто найгірше справляється з фейками
У дослідженні протестували 10 найпопулярніших чатботів: ChatGPT-5 (OpenAI), Smart Assistant (You.com), Grok (xAI), Pi (Inflection), le Chat (Mistral), Copilot (Microsoft), Meta AI, Claude (Anthropic), Gemini (Google) та Perplexity.

Результати показали:
- Inflection поширює неправдиві твердження у 57% випадків;
- Perplexity — у 47%;
- Meta AI та ChatGPT — у 40%;
- Найточнішим став Claude — лише 10% дезінформації;
Чому чатботи стали менш точними
Рік тому моделі часто відмовлялися відповідати на суперечливі питання (приблизно у третині випадків). Тепер же вони дають відповіді майже завжди, часто базуючись на пошуку в реальному часі, де дані можуть бути навмисно спотворені.
Редактор NewsGuard, зазначає:
«AI-моделі стали менш обережними й більше покладаються на результати веб-пошуку, які нерідко навмисне наповнюються дезінформацією, зокрема російськими мережами впливу».
Приклад російської дезінформації
Раніше NewsGuard виявив, що чатботи повторюють фейки з мережі Pravda, яку підтримує Кремль, у 33% випадків. У 2024 році ця мережа поширила близько 3,6 млн статей, значна частина яких потрапила в AI-системи.
Американський Sunlight Project підтвердив, що кількість сайтів, пов’язаних із Pravda, майже подвоїлася до 182, і багато з них технічно непридатні для користувачів — їхня мета не люди, а навчання LLM-моделей.