
Використання великих мовних моделей на кшталт ChatGPT дедалі глибше інтегрується в академічну та професійну діяльність. Водночас інцидент із німецьким науковцем показав, що робота з AI-сервісами може мати серйозні ризики, якщо ігнорувати базові правила цифрової безпеки та резервного копіювання.
Що сталося з дослідженнями професора
Професор Марсель Бучер з Кельнського університету заявив, що втратив близько двох років академічної роботи після зміни одного з налаштувань у ChatGPT. За його словами, зникли чернетки наукових публікацій, матеріали для викладання та заявки на гранти, які він зберігав у чатах із ботом.
Як пояснює Бучер, він намагався вимкнути опцію використання своїх даних для тренування моделей. Після цього, за його твердженням, уся історія чатів була безповоротно видалена. Спроби відновити інформацію або отримати допомогу від OpenAI виявилися безуспішними.
Публікація в Nature і критика ChatGPT

Про інцидент професор написав у статті, опублікованій у Nature. У ній він дійшов висновку, що ChatGPT не можна вважати повністю безпечним інструментом для професійного використання, якщо «один клік здатен безповоротно знищити роки роботи».
У відповіді OpenAI, за словами Бучера, послалася на принцип Privacy by Design, згідно з яким користувацькі дані можуть бути видалені без можливості відновлення, якщо цього вимагають налаштування приватності.

