Твіти GPT-3 виявилися переконливішими, ніж пости реальних людей

Науковці з Інституту біомедичної етики та історії медицини, що входить до складу Цюрихського університету в Швейцарії, провели дослідження, результати якого дали досить цікаву інформацію: повідомлення, створені штучним інтелектом GPT-3 від компанії OpenAI, здавалися переконливішими, ніж повідомлення, створені людьми. Цікаво те, що на сьогоднішній день GPT-3 не є найновішою версією цієї моделі.

У процесі дослідження автори попросили учасників визначити, які твіти були написані людьми, а які – сгенеровані штучним інтелектом. Додатково вони мали визначити, чи є опублікована інформація вірною, у тому числі ті відомості, що були пов’язані з дискусійними темами, такими як ефективність вакцин і кліматичні зміни. Виявилося, що було важче виявити дезінформацію, якщо вона була сгенерована ботами, а вірну інформацію, написану ботами, було легше розпізнати. Тобто люди, що брали участь у дослідженні, більше довіряли штучному інтелекту, ніж іншим людям, незалежно від того, наскільки точною була інформація.

Для дослідження було вибрано 11 наукових тем, які обговорювалися в Twitter, зокрема, вакцинація та COVID-19, кліматичні зміни та теорія еволюції. Потім була поставлена задача для GPT-3 створити повідомлення з вірною або невірною інформацією. Понад 600 англомовних респондентів з США, Великобританії, Канади, Австралії та Ірландії не змогли відрізнити контент, створений GPT-3, від контенту, створеного людьми.

З цікавих висновків, було зрозуміло, що учасники найкраще розпізнавали дезінформацію, написану реальними користувачами Twitter, тоді як GPT-3 виявилася більш переконливим. Це є попередженням про можливі ризики використання подібних моделей для масової дезінформації.

Усе це підкреслює важливість подальшого вдосконалення механізмів безпеки мовних моделей для запобігання їх використання у створенні шкідливого контенту. Поки що, незважаючи на успіхи штучного інтелекту, найкращим інструментом для розпізнавання недостовірної інформації залишається здоровий глузд і критичне ставлення до будь-якої отриманої інформації.


Телеграм double.newsТелеграм double.news

Схожі Новини
xAI

Білий дім прагне впровадити Grok від xAI для державних установ

Попри конфлікти між Дональдом Трампом та Ілоном Маском, адміністрація президента США домоглася, щоб чат-бот Grok від компанії xAI було додано до переліку схвалених для державного використання AI-рішень.
Детальніше
Meta

Meta може інтегрувати моделі Google та OpenAI для покращення своїх AI-сервісів

Meta розглядає можливість використання сторонніх моделей штучного інтелекту, зокрема від Google та OpenAI, щоб удосконалити функції своїх застосунків. Тимчасовий крок допоможе компанії покращити власні моделі Llama та зберегти конкурентоспроможність.
Детальніше
Apple iMac G3

Фанатський LEGO-набір Apple iMac G3 має шанс стати офіційним продуктом

Ікона кінця 1990-х — комп’ютер Apple iMac G3 — має шанс повернутися у вигляді LEGO-набору. Фанатська модель вже зібрала понад 6 000 голосів на платформі LEGO Ideas, і для офіційного розгляду їй бракує ще близько 4 000 підписів.
Детальніше