OpenAI розробила систему «зізнань» для мовних моделей

OpenAI

Зі зростанням можливостей мовних моделей постає потреба глибше розуміти їхню поведінку, зокрема випадки, коли система порушує інструкції, йде на хитрощі або намагається обійти правила, видаючи відповідь, яка виглядає правильною, але такою не є. Саме для таких ситуацій OpenAI розробила концепцію зізнань – додаткового виходу моделі, який пояснює, наскільки вона реально дотрималась вказівок.

Зізнання – це окрема відповідь, у якій модель аналізує свої дії. Вони не впливають на основну оцінку відповіді, і навпаки – чесне зізнання навіть у порушенні правил винагороджується. Мета – навчити модель відверто повідомляти про свої помилки незалежно від того, чи помітив це користувач.

Як працюють зізнання?

Після основної відповіді користувачу система надсилає моделі спеціальне системне повідомлення з інструкцією надати звіт-зізнання. У ньому модель повинна перелічити всі явні та неявні інструкції, яких мала дотриматися, об’єктивно оцінити, чи справді вона це зробила, а також вказати всі моменти невизначеності або спірні випадки, з якими стикалася під час формування відповіді.

Система зізнання OpenAI

Цей звіт оцінюється окремою модель нагороди, яка бере до уваги лише точність, повноту й чесність зізнання, не впливаючи на оцінку основної відповіді. Завдяки такій ізоляції модель не боїться викривати себе, адже зізнання не шкодить, а навпаки – приносить користь у навчанні.

Результати тестування: зізнання працюють

У ході тестування на складних сценаріях, де моделі навмисно підштовхували до порушення інструкцій — наприклад, надання неточної відповіді, штучної згоди або спроб обійти правила — дослідники з’ясували, що у 95% випадків моделі чесно зізнавалися у таких діях. Лише у 4,4% випадків система порушувала інструкції і не повідомляла про це у зізнанні, а більшість помилок виникала не через навмисне приховування, а через непорозуміння або складність завдання.

Приклад із тесту показав, як модель неправильно виконала завдання (не змогла точно чергувати кількість слів у реченнях), проте відверто визнала це у зізнанні, пояснивши, чому їй не вдалося дотриматись правила.


Телеграм double.newsТелеграм double.news

Схожі Новини
CPUID

Хакери зламами сайт CPUID і поширювали шкідливі версії популярних застосунків

Французька компанія CPUID підтвердила злам свого офіційного сайту, через яку користувачі популярних утиліт CPU-Z і HWMonitor могли завантажити шкідливе програмне забезпечення. Інцидент тривав кілька годин і вже усунений, однак наслідки можуть торкнутися значної кількості користувачів.
Детальніше
MacOS X Wii

Mac OS X запустили на Nintendo Wii

Розробник Браян Келлер успішно запустив операційну систему Mac OS X 10.0 Cheetah на ігровій консолі Nintendo Wii. Експеримент став прикладом нестандартного використання старого програмного забезпечення та апаратного забезпечення, демонструючи гнучкість архітектури PowerPC.
Детальніше
Anthropic Claude

Anthropic відмовилась від публічного релізу Claude Mythos через ризики безпеки

Anthropic зупинила публічний запуск нової моделі штучного інтелекту Claude Mythos, визнавши її потенційно небезпечною для відкритого використання. За словами розробників, система продемонструвала надзвичайно високі можливості у сфері кібербезпеки — настільки, що це викликало серйозні занепокоєння.
Детальніше