
Нещодавнє дослідження, проведене вченими з Університету Вашингтона, Університету Копенгагена та Стенфорда, виявило, що деякі моделі OpenAI, зокрема GPT-4 та GPT-3.5, можуть запам’ятовувати та відтворювати фрагменти текстів, захищених авторським правом. Це викликає занепокоєння щодо використання таких даних у навчанні штучного інтелекту, повідомляє TechCrunch.
Дослідники використовували метод, заснований на виявленні “високосюрпризних” слів — тобто слів, які є менш поширеними в певному контексті. Вони видаляли такі слова з уривків художніх книг та статей The New York Times, а потім просили моделі передбачити відсутні слова. Якщо модель правильно відновлювала слово, це свідчило про можливе запам’ятовування цього фрагмента під час навчання.
Результати показали, що GPT-4 демонструє ознаки запам’ятовування частин популярних художніх творів, а також деяких статей The New York Times, хоча в меншій мірі. Це піднімає питання щодо використання захищених авторським правом матеріалів у процесі навчання моделей штучного інтелекту.
Використання захищених авторським правом матеріалів для навчання ШІ без відповідного дозволу може порушувати законодавство та права авторів. Це також піднімає етичні питання щодо використання таких даних і може вплинути на довіру до компаній, що розробляють ШІ. Дослідники наголошують на необхідності більшої прозорості у використанні даних для навчання моделей, щоб уникнути потенційних юридичних та етичних проблем.