Meta використовує ваші дані для тренування ШІ — і вийти з цього майже неможливо

Meta AI

Meta використовує публікації з Facebook та Instagram для навчання своїх AI-моделей. Попри обіцянки, функція відмови для користувачів або не працює, або не враховується.

Meta офіційно підтвердила, що навчає свої моделі штучного інтелекту (зокрема Meta AI та LLaMA) на даних користувачів Facebook та Instagram — включно з фотографіями, відео, коментарями та навіть чатами з Meta AI. Хоча компанія заявляє про можливість “відмовитися”, на практиці користувачі стикаються з численними проблемами: посилання на форму не працює, а запити ігноруються.

Як повідомляє Digital Trends, один з користувачів, Нейт Хейк — засновник сайту Travel Lemming — розповів, що отримав повідомлення від Meta про використання його контенту для тренування ШІ. Однак надана компанією форма відмови не відкривається. Після звернення до служби підтримки Meta відповіла, що “не може вжити подальших дій” щодо його прохання.

Meta ще з 2018 року використовувала фото з Instagram для навчання своїх алгоритмів. Зараз же компанія робить ставку на ШІ й розширює практику збору даних у Європі, попри попереднє призупинення планів через тиск регуляторів у червні 2024 року.

У квітні 2025 року Meta повідомила, що знову починає інформувати користувачів у ЄС та Великій Британії про оновлену політику через push-сповіщення в додатках та електронну пошту. В повідомленнях має бути посилання на форму, де кожен може подати заперечення щодо використання його даних для навчання ШІ.

Однак користувачі, включно з Хейком, повідомляють, що форма не працює або її складно знайти. А якщо запит усе ж подано — Meta може відмовити без пояснення.

Meta розмістила форму “Right to Object” у Центрі конфіденційності для країн, які підпадають під дію законів про захист даних (наприклад, GDPR у ЄС). Але навіть там користувачі повинні надавати обґрунтування — і Meta залишає за собою право відхиляти запити.

У США та більшості країн за межами Європи такої опції взагалі немає. Тож для більшості користувачів — участь у тренуванні моделей Meta відбувається автоматично.

ШІ-технології розвиваються стрімко, й компанії типу Meta намагаються використати якнайбільше даних для створення конкурентних моделей. Проблема в тому, що користувачі не отримують чіткої інформації про те, як використовуються їхні дописи, та не мають ефективного контролю над цим процесом.

На тлі активних дискусій про етику штучного інтелекту й захист персональних даних, ситуація з Meta лише загострює питання: чи маємо ми реальний контроль над власною цифровою приватністю?


Телеграм double.newsТелеграм double.news

Схожі Новини
Linux

Франція відмовляється від Windows і переходить на Linux

Уряд Франція оголосив про поступову відмову від операційної системи Windows на користь Linux. Це рішення є частиною ширшої стратегії Європи, спрямованої на зменшення залежності від іноземних технологій.
Детальніше
xAI Grok

Grok виявився найслабшим серед AI у прогнозах спортивних результатів

Чатбот Grok від компанії xAI продемонстрував найгірші результати серед популярних моделей штучного інтелекту у симуляції ставок на спорт. Відповідне дослідження підкреслює обмеження сучасних AI-систем у складних і динамічних сценаріях.
Детальніше
Ray-Ban Display

Смартокуляри Meta отримають AI-функцію контролю харчування

Meta готує нове оновлення для своїх смартокулярів, яке дозволить відстежувати харчування користувачів за допомогою штучного інтелекту. Функція передбачає аналіз їжі, підрахунок поживних речовин і персоналізовані рекомендації.
Детальніше