DeepMind розкрив, як штучний інтелект може зруйнувати світ — і що з цим робити

Рука робота і людини

DeepMind опублікував масштабне дослідження, в якому прогнозує появу AGI до 2030 року і детально описує сценарії, як він може нашкодити людству, повідомляє Ars Technica.

На фоні зростаючого хайпу навколо штучного інтелекту, Google DeepMind випустив ґрунтовний документ (108 сторінок плюс посилання), який ставить амбітну мету — зупинити потенційно неконтрольований розвиток AGI (штучного загального інтелекту). За оцінками DeepMind, перші форми AGI можуть з’явитися вже до 2030 року. В документі не просто окреслено потенціал технології, а й чесно викладено, як вона може зруйнувати цивілізацію.

Команда DeepMind, яку очолює співзасновник компанії Шейн Легг, виокремлює чотири основні категорії ризиків:

  1. Зловживання
    AGI може потрапити до рук недобросовісних користувачів — наприклад, хакерів чи терористів. Вони можуть використовувати модель для створення біозброї, пошуку вразливостей або масових маніпуляцій. DeepMind пропонує:

    – створення наджорстких протоколів після навчання (post-training safety);

    – розробку технологій «відучування» небезпечних знань (unlearning), хоч і визнає — це поки що теоретично.
  2. Невідповідність
    Це класичний сценарій з фантастики: AI, що діє всупереч задуму розробника. AGI може приймати рішення, які з точки зору людей є катастрофічними, хоча сам інтелект вважає їх логічними. Щоб уникнути цього, DeepMind пропонує:

    – використання «підсиленого нагляду» — коли кілька моделей перевіряють одна одну;

    – жорстке тестування та постійний моніторинг;

    – віртуальні «пісочниці» з чітким контролем і кнопкою «вимкнути».
  3. Помилки
    Навіть без злого умислу AGI може помилятися. Сьогоднішні генеративні моделі іноді радять клеїти піцу. Що буде, коли така модель отримає контроль над військовими системами? DeepMind наголошує:

    – не давати AGI занадто багато влади;

    – впровадити системи-перевірки команд перед їх виконанням.
  4. Структурні ризики
    Найнепередбачуваніший сценарій. AGI, діючи як частина багатокомпонентної системи, може мимоволі спричинити соціальний або політичний хаос. Наприклад, створювати надпереконливу дезінформацію або маніпулювати ринками. Це найважче контролювати, бо залежить не лише від технології, а й від інституцій та суспільства.

DeepMind не єдині, хто бачить перспективу AGI у найближчі роки. Представники Google, зокрема Талсі Доші з команди Gemini, зазначають: «Моделі стають дедалі розумнішими, і це вже має величезну цінність. Але як далеко ми від справжнього AGI — питання відкрите».

Хоча DeepMind прямо не каже, що кінець світу вже близько, їхнє дослідження — серйозний сигнал. AGI може стати найбільшим досягненням людства або найбільшою загрозою. Тому компанія називає свою роботу «відправною точкою» для глобальної дискусії, яка має розпочатися негайно. Якщо AGI справді з’явиться до 2030 року — часу на зволікання немає.


Телеграм double.newsТелеграм double.news

Схожі Новини
Xiaomi HyperOS 3

Xiaomi розпочала оновлення до HyperOS 3 ще для 10 моделей смартфонів

Xiaomi продовжує впровадження HyperOS 3, нової версії прошивки на базі Android 16, на додаткові моделі смартфонів Xiaomi та Redmi. Оновлення отримали десять пристроїв, серед яких MIX Fold 3, серія Xiaomi 13 та низка моделей Redmi Note, випущених у 2023–2024 роках.
Детальніше
Nvidia

Nvidia тестує програму відстеження чипів на тлі чуток про контрабанду в Китай

Nvidia нібито розробляє технологію, яка дозволяє визначати геолокацію її AI-чипів, на тлі зростання кількості повідомлень про можливу контрабанду чипів Blackwell до Китаю. Про це повідомляє Reuters з посиланням на анонімні джерела.
Детальніше
Космічний апарат NASA MAVEN

NASA втратила зв’язок із космічним апаратом MAVEN і може незабаром втратити ще один

NASA втратили зв'язок з одним із трьох своїх космічних апаратів, що обертаються навколо Марса. Йдеться про MAVEN, який виконував важливі наукові та технічні функції. Ще один апарат — Mars Odyssey - наближається до завершення своєї місії через нестачу пального, а третій - Mars Reconnaissance Orbiter - працює понад 18 років, що перевищує його проєктний термін служби.
Детальніше