Науковці з Інституту біомедичної етики та історії медицини, що входить до складу Цюрихського університету в Швейцарії, провели дослідження, результати якого дали досить цікаву інформацію: повідомлення, створені штучним інтелектом GPT-3 від компанії OpenAI, здавалися переконливішими, ніж повідомлення, створені людьми. Цікаво те, що на сьогоднішній день GPT-3 не є найновішою версією цієї моделі.
У процесі дослідження автори попросили учасників визначити, які твіти були написані людьми, а які – сгенеровані штучним інтелектом. Додатково вони мали визначити, чи є опублікована інформація вірною, у тому числі ті відомості, що були пов’язані з дискусійними темами, такими як ефективність вакцин і кліматичні зміни. Виявилося, що було важче виявити дезінформацію, якщо вона була сгенерована ботами, а вірну інформацію, написану ботами, було легше розпізнати. Тобто люди, що брали участь у дослідженні, більше довіряли штучному інтелекту, ніж іншим людям, незалежно від того, наскільки точною була інформація.
Для дослідження було вибрано 11 наукових тем, які обговорювалися в Twitter, зокрема, вакцинація та COVID-19, кліматичні зміни та теорія еволюції. Потім була поставлена задача для GPT-3 створити повідомлення з вірною або невірною інформацією. Понад 600 англомовних респондентів з США, Великобританії, Канади, Австралії та Ірландії не змогли відрізнити контент, створений GPT-3, від контенту, створеного людьми.
З цікавих висновків, було зрозуміло, що учасники найкраще розпізнавали дезінформацію, написану реальними користувачами Twitter, тоді як GPT-3 виявилася більш переконливим. Це є попередженням про можливі ризики використання подібних моделей для масової дезінформації.
Усе це підкреслює важливість подальшого вдосконалення механізмів безпеки мовних моделей для запобігання їх використання у створенні шкідливого контенту. Поки що, незважаючи на успіхи штучного інтелекту, найкращим інструментом для розпізнавання недостовірної інформації залишається здоровий глузд і критичне ставлення до будь-якої отриманої інформації.