Google дозволила самій собі використати всю загальнодоступну інформацію для навчання ШІ

Нещодавно було виявлено невелике, але важливе зміну в англомовній версії “Політики конфіденційності” Google. Згідно з цим оновленням, технологічний гігант надає собі право використовувати всю інформацію, яка публікується в Інтернеті, для навчання власних моделей штучного інтелекту.

В оригінальній версії документа говорилось, що відкриті дані будуть використовуватися в комерційних та дослідницьких цілях, а також для покращення роботи сервісу “Google Перекладач”. Однак в оновленій “Політиці конфиденційності” вказано: “Google використовує інформацію для покращення своїх сервісів і розробки нових продуктів, функцій та технологій для користувачів і суспільства. Компанія використовує відкриту інформацію для навчання моделей ШІ Google та створення продуктів і функцій, таких як “Google Перекладач”, Bard і Cloud AI”.

Далі у документі уточнюється, що саме розуміється під “відкритою” інформацією: “Якщо інформація про вашу компанію з’являється на веб-сайті, ми можемо проіндексувати і відобразити її в сервісах Google“. Зміни набрали чинності з 1 липня 2023 року. Враховуючи кількість і час існування багатьох облікових записів Google, нова політика конфіденційності може також включати дані, які збиралися протягом десятиліть. Водночас залишається невизначеним, чи існує механізм, що дозволяє користувачам виключити з цього масиву інформацію, пов’язану з ними, як це робиться в пошуковій системі.

З оновленою редакцією документа Google, фактично, відображає сучасну реальність — багато розробників моделей ШІ вже використовують великі масиви даних для їхнього навчання, не задумуючись про їх приналежність. Деякі ресурси намагаються захиститися від цього: Reddit і Twitter сильно обмежили доступ до контенту на своїх платформах, не зважаючи на обурення громадськості та можливі довгострокові наслідки.

Це оновлення від Google є важливим моментом в розвитку технологій ШІ та обробки даних, враховуючи, що технологічні компанії все більше впроваджують ШІ у свої продукти та послуги. Воно відкриває нові можливості для компанії, але також викликає питання щодо приватності користувачів та відповідального використання даних.


Телеграм double.newsТелеграм double.news

Схожі Новини
ChatGPT

ШІ та психічні ризики: як ChatGPT спричинив кризу і фінансові втрати

Використання чат-ботів на базі штучного інтелекту відкриває нові можливості, але водночас несе потенційні ризики для психічного здоров’я. Історія користувача з Амстердама демонструє, як взаємодія з ChatGPT може призвести до серйозних наслідків — від фінансових втрат до особистої кризи.
Детальніше
DDR5

Ціни на DDR5 вперше за кілька місяців почали знижуватися

Після кількох місяців зростання ціни на оперативну пам’ять DDR5 пам'ять демонструють перше суттєве зниження. Аналітики пов’язують цю тенденцію з новими технологічними змінами, зокрема алгоритмом TurboQuant від Google, який може вплинути на попит у сфері штучного інтелекту.
Детальніше