
Понад 800 публічних осіб — серед них співзасновник Apple Стів Возняк, принц Гаррі, науковці, військові лідери та бізнесмени — підписали спільну заяву із закликом тимчасово заборонити розробку штучного інтелекту, який може призвести до появи «суперінтелекту». Ініціатори наголошують: дослідження мають бути зупинені, доки людство не зможе гарантувати безпечність і контроль над такими системами.
800 підписантів проти «неконтрольованого майбутнього»
Як повідомляє The Financial Times, відкритий лист опублікував Інститут майбутнього життя. У ньому йдеться:
«Ми закликаємо до заборони розробки суперінтелекту доти, доки не буде досягнуто широкого наукового консенсусу щодо його безпечності та контролю, а також поки не буде отримано підтримку суспільства».
Серед підписантів — нобелівський лауреат і дослідник ШІ Джеффрі Хінтон, колишній радник Дональда Трампа Стів Беннон, ексголова Об’єднаного комітету начальників штабів США Майк Маллен, а також музикант Will.i.am. Такий широкий спектр підписантів демонструє, що занепокоєння щодо ШІ виходить за межі наукових кіл.
Що таке AGI та «суперінтелект»

Штучний загальний інтелект (AGI) — це рівень розвитку машин, коли вони здатні мислити та виконувати завдання на рівні людини. Суперінтелект, у свою чергу, передбачає перевищення людських можливостей — тобто системи, що зможуть приймати рішення ефективніше за будь-яких експертів.
Експерти застерігають: неконтрольований розвиток таких систем може становити екзистенційну загрозу людству. Поки що ШІ успішно виконує вузькі завдання — аналіз тексту, розпізнавання зображень, генерацію контенту, але не здатен стабільно працювати із складними системами, наприклад у сфері автономного водіння.

