
Штучний інтелект Grok, створений компанією xAI під керівництвом Ілона Маска, нещодавно викликав суперечки через відповідь на запитання щодо політичного насильства у США. Алгоритм навів фактичні дані про переважну загрозу з боку праворадикальних екстремістів, однак Маск засудив це як помилку. Інцидент підняв важливі питання щодо об’єктивності та прозорості штучного інтелекту.
Що сталося
Як повідомляє Rolling Stones, у центрі конфлікту між Ілоном Маском та його штучним інтелектом Grok опинилась відповідь чат-бота, в якій стверджувалось, що з 2016 року більшість терористичних атак у США здійснили саме праворадикальні екстремісти. Grok навів приклади штурму Капітолію 6 січня 2021 року, стрілянини в Ель-Пасо у 2019‑му та інших подібних інцидентів. Ці висновки базувалися на даних агентства Reuters і звітах Комісії з аудиту уряду США (GAO), які підтверджують, що напади з боку правих радикалів призвели до найбільшої кількості смертей серед усіх форм політичного насильства в країні.
Реакція Ілона Маска
Ілон Маск відреагував на відповідь Grok доволі жорстко, назвавши її «об’єктивно неправдивою» та охарактеризувавши як «великий провал» (major fail). Він звинуватив штучний інтелект у повторенні «наративів мейнстримних медіа» та заявив про необхідність негайного коригування подібних відповідей. Це не перший випадок, коли Маск втручається у роботу Grok: раніше він вже критикував алгоритм за висловлювання, що не збігаються з його власним баченням подій.