Твіти GPT-3 виявилися переконливішими, ніж пости реальних людей

Науковці з Інституту біомедичної етики та історії медицини, що входить до складу Цюрихського університету в Швейцарії, провели дослідження, результати якого дали досить цікаву інформацію: повідомлення, створені штучним інтелектом GPT-3 від компанії OpenAI, здавалися переконливішими, ніж повідомлення, створені людьми. Цікаво те, що на сьогоднішній день GPT-3 не є найновішою версією цієї моделі.

У процесі дослідження автори попросили учасників визначити, які твіти були написані людьми, а які – сгенеровані штучним інтелектом. Додатково вони мали визначити, чи є опублікована інформація вірною, у тому числі ті відомості, що були пов’язані з дискусійними темами, такими як ефективність вакцин і кліматичні зміни. Виявилося, що було важче виявити дезінформацію, якщо вона була сгенерована ботами, а вірну інформацію, написану ботами, було легше розпізнати. Тобто люди, що брали участь у дослідженні, більше довіряли штучному інтелекту, ніж іншим людям, незалежно від того, наскільки точною була інформація.

Для дослідження було вибрано 11 наукових тем, які обговорювалися в Twitter, зокрема, вакцинація та COVID-19, кліматичні зміни та теорія еволюції. Потім була поставлена задача для GPT-3 створити повідомлення з вірною або невірною інформацією. Понад 600 англомовних респондентів з США, Великобританії, Канади, Австралії та Ірландії не змогли відрізнити контент, створений GPT-3, від контенту, створеного людьми.

З цікавих висновків, було зрозуміло, що учасники найкраще розпізнавали дезінформацію, написану реальними користувачами Twitter, тоді як GPT-3 виявилася більш переконливим. Це є попередженням про можливі ризики використання подібних моделей для масової дезінформації.

Усе це підкреслює важливість подальшого вдосконалення механізмів безпеки мовних моделей для запобігання їх використання у створенні шкідливого контенту. Поки що, незважаючи на успіхи штучного інтелекту, найкращим інструментом для розпізнавання недостовірної інформації залишається здоровий глузд і критичне ставлення до будь-якої отриманої інформації.

Схожі Новини
Офісні працівники

Ford, Amazon і Anthropic попереджають: AI масово замінює офісні професії

За даними WSJ, провідні компанії прогнозують масове зникнення офісних посад через AI. Ford, Amazon, Anthropic та інші заявляють про глибоку трансформацію ринку. Під загрозою — “білі комірці” й молоді спеціалісти. Єдиний вихід — освоювати нові навички й працювати разом із ШІ.
Детальніше
Hugo Forward x Zeller

Hugo Boss показали нове 3D-взуття, що створюється індивідуально для всіх

Hugo Boss представив 3D-друковані лофери, які виготовляються індивідуально після сканування стопи клієнта. Взуття створене у співпраці з Zellerfeld, не має швів і виготовлене з гнучкого, перероблюваного матеріалу. Замовити їх можна лише онлайн або в рамках спеціальних подій у Мілані й Амстердамі.
Детальніше