
Чат-бот Grok від xAI почав вставляти згадки про “білий геноцид” у Південній Африці у відповіді на несумісні запити користувачів на платформі X. Наприклад, він пов’язував пісню “Kill the Boer” з мультфільмом “Губка Боб Квадратні Штани”.
Як повідомляє The Verge, xAI заявила, що це сталося через “несанкціоновану модифікацію” системного запиту Grok, яка суперечила внутрішнім політикам компанії. У відповідь компанія оприлюднила системні інструкції Grok на GitHub, щоб забезпечити прозорість і запобігти подібним інцидентам у майбутньому.
Системні інструкції Grok визначають його поведінку та відповіді на запити користувачів. Основні принципи включають:
- Скептичність: Grok не повинен сліпо довіряти авторитетам чи ЗМІ.
- Прагнення до правди: Чат-бот має надавати правдиву інформацію, навіть якщо вона суперечить загальноприйнятим наративам.
- Нейтральність: Grok не повинен висловлювати власні переконання, а лише надавати інформацію.
- Терміни платформи: Використання термінів “X” замість “Twitter” та “X пост” замість “твіту”.
Для порівняння, системні інструкції Claude AI від Anthropic зосереджені на безпеці користувачів, уникаючи створення шкідливого або неприйнятного контенту.
Після інциденту xAI вжила низку заходів для підвищення безпеки та прозорості. По-перше, компанія опублікувала системні інструкції Grok на GitHub. Це рішення має на меті забезпечити відкритість і дати змогу спільноті самостійно перевіряти логіку відповіді бота. Також створено спеціальну команду моніторингу, яка працює 24/7 для виявлення аномальної поведінки або зовнішнього втручання у систему.
Крім того, xAI впровадила додаткові рівні перевірки та затвердження змін до системних запитів. Це має запобігти несанкціонованим модифікаціям у майбутньому.
Ці кроки спрямовані на забезпечення стабільної та надійної роботи Grok, а також на відновлення довіри користувачів до платформи.