Твіти GPT-3 виявилися переконливішими, ніж пости реальних людей

Науковці з Інституту біомедичної етики та історії медицини, що входить до складу Цюрихського університету в Швейцарії, провели дослідження, результати якого дали досить цікаву інформацію: повідомлення, створені штучним інтелектом GPT-3 від компанії OpenAI, здавалися переконливішими, ніж повідомлення, створені людьми. Цікаво те, що на сьогоднішній день GPT-3 не є найновішою версією цієї моделі.

У процесі дослідження автори попросили учасників визначити, які твіти були написані людьми, а які – сгенеровані штучним інтелектом. Додатково вони мали визначити, чи є опублікована інформація вірною, у тому числі ті відомості, що були пов’язані з дискусійними темами, такими як ефективність вакцин і кліматичні зміни. Виявилося, що було важче виявити дезінформацію, якщо вона була сгенерована ботами, а вірну інформацію, написану ботами, було легше розпізнати. Тобто люди, що брали участь у дослідженні, більше довіряли штучному інтелекту, ніж іншим людям, незалежно від того, наскільки точною була інформація.

Для дослідження було вибрано 11 наукових тем, які обговорювалися в Twitter, зокрема, вакцинація та COVID-19, кліматичні зміни та теорія еволюції. Потім була поставлена задача для GPT-3 створити повідомлення з вірною або невірною інформацією. Понад 600 англомовних респондентів з США, Великобританії, Канади, Австралії та Ірландії не змогли відрізнити контент, створений GPT-3, від контенту, створеного людьми.

З цікавих висновків, було зрозуміло, що учасники найкраще розпізнавали дезінформацію, написану реальними користувачами Twitter, тоді як GPT-3 виявилася більш переконливим. Це є попередженням про можливі ризики використання подібних моделей для масової дезінформації.

Усе це підкреслює важливість подальшого вдосконалення механізмів безпеки мовних моделей для запобігання їх використання у створенні шкідливого контенту. Поки що, незважаючи на успіхи штучного інтелекту, найкращим інструментом для розпізнавання недостовірної інформації залишається здоровий глузд і критичне ставлення до будь-якої отриманої інформації.


Телеграм double.newsТелеграм double.news

Схожі Новини
Штучний інтелект

Віруси навчилися користуватися штучним інтелектом, щоб змінювати свій код

Google попереджає про нову фазу зловживання штучним інтелектом — кіберзлочинці почали використовувати великі мовні моделі для створення та самостійного переписування шкідливого програмного забезпечення.
Детальніше
DeepSeek

Дослідник DeepSeek виступив проти безконтрольного розвитку ШІ

Провідний дослідник китайської компанії DeepSeek, яка стоїть за одним із найпотужніших великих мовних моделей DeepSeek-R1, публічно заявив, що розвиток штучного інтелекту може мати негативний вплив на суспільство.
Детальніше
Microsoft AI

Microsoft перевірила, як ШІ працює без людини

Microsoft провела масштабний експеримент, створивши штучне онлайн-середовище “Magentic Marketplace”, щоб дослідити, як ШІ-агенти діють без участі людини. Модель імітувала реальний інтернет-магазин, у якому агенти-покупці взаємодіяли з агентами-продавцями, виконуючи завдання торгівлі, переговорів і вибору товарів.
Детальніше