OpenAI пояснила, чому мовні моделі «галюцинують» і як це виправити

OpenAI

Попри значний прогрес у розвитку штучного інтелекту, навіть найсучасніші мовні моделі залишаються схильними до так званих галюцинацій — випадків, коли система впевнено видає неправдиву інформацію. У свої публікації OpenAI пояснює, чому виникає ця проблема, і чому традиційні методи тренування та оцінки моделей фактично заохочують «вгадування», а не чесне визнання невпевненості.

Що таке галюцинації у мовних моделях

Галюцинаціями називають правдоподібні, але хибні твердження, які моделі можуть видавати навіть у відповідь на прості запитання. Як приклад, автори наводять випадки, коли популярний чат-бот кілька разів вигадував назви дисертації та дати народження одного з науковців, що брали участь у дослідженні.

Чому вони виникають

ChatGPT

За словами дослідників, головна причина криється в методах оцінки. Якщо модель отримує «бали» лише за точні відповіді, то вона вчиться ризикувати та вгадувати, адже це іноді приносить результат. Натомість чесна відповідь «я не знаю» гарантує нуль балів, і тому в загальному рейтингу виглядає гірше.

Ця ситуація нагадує тест із множинним вибором: здогад може випадково бути правильним, тоді як відмова від відповіді завжди означає програш. Саме тому моделі навчаються давати впевнені, але часто хибні твердження.

OpenAI пропонує оновити систему оцінювання:

  • штрафувати за впевнені помилки більше, ніж за відмову від відповіді;
  • давати частковий залік за вираження невпевненості;
  • змінити головні метрики так, щоб вони заохочували чітке визнання меж знань.

На думку дослідників, саме це допоможе зменшити кількість галюцинацій і стимулювати створення моделей, які відповідальніше підходять до генерації фактів.

Як це пов’язано з процесом навчання моделей

ChatGPT

Галюцинації також виникають через особливості попереднього навчання, коли моделі вчаться передбачати наступне слово у тексті. Вони добре запам’ятовують закономірності (правопис, синтаксис), але не здатні надійно виводити випадкові чи рідкісні факти, наприклад, дату народження конкретної людини. Це призводить до того, що ШІ іноді вигадує «логічно ймовірні», але некоректні відповіді.


Телеграм double.newsТелеграм double.news

Схожі Новини
OpenAI

OpenAI отримала 110 млрд доларів інвестицій від Amazon, Nvidia та SoftBank

OpenAI оголосила про залучення 110 млрд доларів у новому інвестиційному раунді. Це більш ніж удвічі перевищує попереднє фінансування компанії рік тому та встановлює новий рекорд серед приватних технологічних компаній.
Детальніше
Apple Music Ritter Sport

Apple Music з’явиться на шоколаді Ritter Sport у Німеччині

Apple оголосила про партнерство з німецьким виробником шоколаду Ritter Sport. У межах спільної кампанії на упаковках популярних 100-грамових квадратних плиток з’явиться просування сервісу Apple Music.
Детальніше
GIGABYTE GO27Q24

GIGABYTE представила два нові QD-OLED монітори 240 Гц QHD для кіберспорту

GIGABYTE представила ігрові монітори GO27Q24 та GO27Q24A із 27-дюймовою QD-OLED панеллю, роздільністю QHD (2560×1440) та частотою оновлення 240 Гц. Новинки орієнтовані на геймерів, які грають у динамічні дисципліни на кшталт Counter-Strike 2, де ключову роль відіграють швидкість реакції та чіткість руху.
Детальніше