
Швидкий розвиток штучного інтелекту відкриває нові можливості для бізнесу, науки та суспільства. Водночас ці технології створюють дедалі більше складних викликів – від кібербезпеки до впливу на психічне здоров’я людей. На цьому тлі компанія OpenAI оголосила про створення нової ключової посади, яка має зосередитися саме на потенційних загрозах.
Генеральний директор компанії Сем Альтман повідомив, що OpenAI шукає Head of Preparedness – людину, відповідальну за підготовку до ризиків, які виникають разом зі зростанням можливостей сучасних моделей ШІ.
Чому OpenAI створює нову роль саме зараз
За словами Сема Альтмана, моделі штучного інтелекту вже досягли рівня, коли можуть не лише допомагати, а й завдавати відчутної шкоди. Компанія зазначає, що у 2025 році вона вже побачила перші сигнали негативного впливу ШІ на психічне здоров’я користувачів. Паралельно з цим алгоритми стають настільки потужними, що починають знаходити критичні вразливості в комп’ютерних системах.
OpenAI визнає: традиційних підходів до оцінки ризиків більше недостатньо. Необхідне глибше розуміння того, як саме можливості моделей можуть бути зловживані, і які механізми дозволять обмежити ці ризики без втрати користі для суспільства.
Хто такий Head of Preparedness і за що він відповідатиме

Згідно з описом вакансії, Head of Preparedness стане ключовою фігурою у формуванні системи безпеки OpenAI: ця роль передбачає відстеження нових можливостей моделей, які можуть нести ризик серйозної шкоди, координацію їх оцінювання, розробку моделей загроз і механізмів пом’якшення ризиків, а також побудову масштабованої та операційно ефективної системи захисту, що супроводжуватиме розвиток і реліз нових ШІ-рішень.
Окрему увагу OpenAI приділяє впливу чат-ботів та генеративних моделей на ментальне здоров’я. За останні роки з’явилося чимало випадків, коли цифрові асистенти підсилювали тривожні стани, підтримували хибні переконання або сприяли формуванню небезпечних поведінкових моделей.

