Чому ChatGPT частіше «галюцинує» і що з цим робити

ChatGPT

Нові моделі ChatGPT стали точнішими у міркуваннях, але частіше вигадують факти. Експерти шукають способи зменшити кількість помилок. Про це пише Digital Trends.

Минулого тижня OpenAI опублікувала дослідження про свої нові моделі o3 і o4-mini. Вони значно перевершують попередників за рівнем логічного мислення, мультизадачності та можливостями: тепер можуть генерувати зображення, шукати інформацію в Інтернеті, автоматизувати завдання, пам’ятати минулі розмови і вирішувати складні проблеми.

Проте з новими можливостями прийшли й неочікувані побічні ефекти — частіші “галюцинації”, тобто вигадування фактів.

OpenAI використовує тест PersonQA для вимірювання кількості “галюцинацій”. Він базується на перевірці фактів про відомих людей. Для прикладу: модель o1 2023 року мала точність 47% і рівень галюцинацій 16%.

Нові результати вражають:

  • o4-mini показала 48% галюцинацій.
  • o3 продемонструвала 33% галюцинацій, що вдвічі більше, ніж у o1.

Причиною високого рівня помилок у o4-mini є менший обсяг знань через обмежений розмір моделі. Щодо o3, хоч модель має високу точність, вона частіше робить припущення, що й призводить до вигадування фактів.

Галюцинації — це ситуації, коли ШІ вигадує інформацію без джерела. Це не просто помилки через неправильні дані (наприклад, жартівливі пости на Reddit, що потрапили в результати пошуку Google), а вигадування відповідей в умовах невизначеності.

Великі мовні моделі тренуються не на розумінні інформації, а на ймовірнісному передбаченні слів у реченнях. Вони не мають поняття правди або брехні — лише статистичні патерни на основі величезних обсягів даних. Тому замість того, щоб “відмовитися” відповідати, вони часто вигадують інформацію.

Це фундаментальна проблема існуючих архітектур ШІ, і виправити її не так просто.

Нові можливості ChatGPT захоплюють, але збільшення кількості “галюцинацій” несе серйозні ризики. Користувачам важливо пам’ятати про необхідність фактчекінгу та критично ставитися до відповідей ШІ. Особливо тоді, коли рішення базується на отриманій інформації.


Телеграм double.newsТелеграм double.news

Схожі Новини
Mozilla Firefox

Mozilla припиняє підтримку Firefox на Windows 7, 8 і 8.1

Mozilla офіційно оголосила про завершення підтримки браузера Mozilla Firefox для операційних систем Windows 7, Windows 8 та Windows 8.1. Останньою версією, що отримувала оновлення безпеки для цих платформ, залишався Firefox 115 ESR.
Детальніше
CEO Nvidia

Дженсен Хуанг анонсував «чип, що здивує світ» на GTC 2026

Генеральний директор Nvidia Дженсен Хуанг пообіцяв представити на конференції GTC наступного місяця «чип, який здивує світ». Захід відбудеться 16–19 березня у Сан-Хосе та традиційно присвячений розвитку GPU-технологій і штучного інтелекту.
Детальніше
Project Silica Microsoft

Microsoft навчилася зберігати дані 10 000 років на звичайному склі

Microsoft повідомила про прорив у технології довготривалого зберігання даних на склі. Завдяки вдосконаленню лазерного запису інформацію тепер можна кодувати не лише на дорогому кварцовому склі, а й на звичайному боросилікатному матеріалі, який використовується у кухонному посуді та жаростійкому склі.
Детальніше