Чому ChatGPT частіше «галюцинує» і що з цим робити

ChatGPT

Нові моделі ChatGPT стали точнішими у міркуваннях, але частіше вигадують факти. Експерти шукають способи зменшити кількість помилок. Про це пише Digital Trends.

Минулого тижня OpenAI опублікувала дослідження про свої нові моделі o3 і o4-mini. Вони значно перевершують попередників за рівнем логічного мислення, мультизадачності та можливостями: тепер можуть генерувати зображення, шукати інформацію в Інтернеті, автоматизувати завдання, пам’ятати минулі розмови і вирішувати складні проблеми.

Проте з новими можливостями прийшли й неочікувані побічні ефекти — частіші “галюцинації”, тобто вигадування фактів.

OpenAI використовує тест PersonQA для вимірювання кількості “галюцинацій”. Він базується на перевірці фактів про відомих людей. Для прикладу: модель o1 2023 року мала точність 47% і рівень галюцинацій 16%.

Нові результати вражають:

  • o4-mini показала 48% галюцинацій.
  • o3 продемонструвала 33% галюцинацій, що вдвічі більше, ніж у o1.

Причиною високого рівня помилок у o4-mini є менший обсяг знань через обмежений розмір моделі. Щодо o3, хоч модель має високу точність, вона частіше робить припущення, що й призводить до вигадування фактів.

Галюцинації — це ситуації, коли ШІ вигадує інформацію без джерела. Це не просто помилки через неправильні дані (наприклад, жартівливі пости на Reddit, що потрапили в результати пошуку Google), а вигадування відповідей в умовах невизначеності.

Великі мовні моделі тренуються не на розумінні інформації, а на ймовірнісному передбаченні слів у реченнях. Вони не мають поняття правди або брехні — лише статистичні патерни на основі величезних обсягів даних. Тому замість того, щоб “відмовитися” відповідати, вони часто вигадують інформацію.

Це фундаментальна проблема існуючих архітектур ШІ, і виправити її не так просто.

Нові можливості ChatGPT захоплюють, але збільшення кількості “галюцинацій” несе серйозні ризики. Користувачам важливо пам’ятати про необхідність фактчекінгу та критично ставитися до відповідей ШІ. Особливо тоді, коли рішення базується на отриманій інформації.

Схожі Новини
WhatsApp

WhatsApp припинить деяких моделей iPhone з 5 травня 2025 року

WhatsApp оголосив, що в рамках оновлення програмного забезпечення припинить підтримку кількох моделей iPhone, які колись були надзвичайно популярними. Хоча ці пристрої вважаються застарілими, невелика частина користувачів досі їх використовує.
Детальніше
Nike RTFKT

Nike зіткнулася з колективним позовом через свої NFT-кросівки

Nike опинилася під загрозою колективного позову після рішення закрити свій віртуальний проєкт RTFKT. Група покупців звинувачує компанію у введенні в оману, адже вони нібито не знали, що купують «незареєстровані цінні папери». Якби покупці знали це заздалегідь, вони б утрималися від інвестування у віртуальні кросівки.
Детальніше
Google Chrome

У Google визнали: Chrome може постраждати без підтримки компанії

Під час слухань у справі проти Google, менеджер Chrome Паріса Табріз заявила, що понад 90% коду Chromium створено фахівцями Google з 2015 року. За її словами, функціональність браузера тісно пов'язана з іншими продуктами компанії.
Детальніше