Провідні технологічні компанії створили некомерційну ініціативу ROOST, спрямовану на розробку та надання безкоштовних інструментів для захисту дітей в онлайн-середовищі.
За інформацією видання The Verge, Roblox, Discord, OpenAI та Google оголосили про створення некомерційної організації ROOST (Robust Open Online Safety Tools), метою якої є підвищення безпеки дітей в інтернеті. Ініціатива спрямована на розробку та надання безкоштовних, відкритих AI-інструментів для виявлення, перевірки та повідомлення про матеріали, що містять сексуальне насильство над дітьми (CSAM).
ROOST планує об’єднати та покращити існуючі заходи безпеки через співпрацю та прозорість, співпрацюючи з розробниками AI для створення спільноти практики щодо захисту контенту. Проект вже зібрав понад 27 мільйонів доларів від різних благодійних організацій для підтримки своєї діяльності протягом перших чотирьох років. Очікується, що ROOST зробить існуючі інструменти більш доступними та інтегрує системи модерації AI через API.
Ця ініціатива підкреслює важливість створення безпечнішого інтернету для молодих користувачів на тлі зростаючих занепокоєнь та регуляторного тиску на соціальні медіа-платформи. За даними Національного центру зниклих та експлуатованих дітей, підозри у випадках експлуатації дітей зросли на 12% між 2022 та 2023 роками.
Учасники ROOST роблять свій внесок різними способами: деякі надають фінансування, інші діляться своїми інструментами або експертизою. Наприклад, Discord розширює свій проект Lantern, спрямований на обмін інформацією між платформами, а Roblox планує відкрити свій AI-модель для виявлення ненормативної лексики, расизму, булінгу та іншого неприйнятного контенту в аудіозаписах.
Ці зусилля відображають спільну відданість компаній забезпеченню безпеки дітей в онлайн-середовищі та створенню більш безпечного інтернету для всіх користувачів.