Твіти GPT-3 виявилися переконливішими, ніж пости реальних людей

Науковці з Інституту біомедичної етики та історії медицини, що входить до складу Цюрихського університету в Швейцарії, провели дослідження, результати якого дали досить цікаву інформацію: повідомлення, створені штучним інтелектом GPT-3 від компанії OpenAI, здавалися переконливішими, ніж повідомлення, створені людьми. Цікаво те, що на сьогоднішній день GPT-3 не є найновішою версією цієї моделі.

У процесі дослідження автори попросили учасників визначити, які твіти були написані людьми, а які – сгенеровані штучним інтелектом. Додатково вони мали визначити, чи є опублікована інформація вірною, у тому числі ті відомості, що були пов’язані з дискусійними темами, такими як ефективність вакцин і кліматичні зміни. Виявилося, що було важче виявити дезінформацію, якщо вона була сгенерована ботами, а вірну інформацію, написану ботами, було легше розпізнати. Тобто люди, що брали участь у дослідженні, більше довіряли штучному інтелекту, ніж іншим людям, незалежно від того, наскільки точною була інформація.

Для дослідження було вибрано 11 наукових тем, які обговорювалися в Twitter, зокрема, вакцинація та COVID-19, кліматичні зміни та теорія еволюції. Потім була поставлена задача для GPT-3 створити повідомлення з вірною або невірною інформацією. Понад 600 англомовних респондентів з США, Великобританії, Канади, Австралії та Ірландії не змогли відрізнити контент, створений GPT-3, від контенту, створеного людьми.

З цікавих висновків, було зрозуміло, що учасники найкраще розпізнавали дезінформацію, написану реальними користувачами Twitter, тоді як GPT-3 виявилася більш переконливим. Це є попередженням про можливі ризики використання подібних моделей для масової дезінформації.

Усе це підкреслює важливість подальшого вдосконалення механізмів безпеки мовних моделей для запобігання їх використання у створенні шкідливого контенту. Поки що, незважаючи на успіхи штучного інтелекту, найкращим інструментом для розпізнавання недостовірної інформації залишається здоровий глузд і критичне ставлення до будь-якої отриманої інформації.


Телеграм double.newsТелеграм double.news

Схожі Новини
Apple Music

Apple Music маркувативе музику створену за допомогою ШІ

Apple Music почав впроваджувати нову систему маркування контенту, створеного за допомогою штучного інтелекту. Функція отримала назву Transparency Tags і має допомогти слухачам зрозуміти, чи використовувався AI під час створення музики.
Детальніше
Tesla

Tesla веде переговори з Samsung про збільшення виробництва чипів AI6

Tesla веде переговори із Samsung Electronics щодо значного розширення виробництва свого нового чипа штучного інтелекту AI6. За даними галузевих джерел, автовиробник прагне збільшити обсяги виробництва більш ніж удвічі, що може суттєво посилити партнерство між двома компаніями.
Детальніше
СЕО Anthropic

CEO Anthropic звинуватив OpenAI у брехні через контракт із Пентагоном

Генеральний директор Anthropic Даріо Амодей різко розкритикував OpenAI через співпрацю з Міністерством оборони США. У внутрішньому листі до співробітників він назвав заяви компанії про безпечне використання штучного інтелекту відвертою брехнею.
Детальніше