Передові розробники штучного інтелекту виразили стурбованість

штучний інтелект

Керівники компаній, що працюють у сфері розробки штучного інтелекту, зокрема OpenAI, Google DeepMind, Anthropic та інших відомих лабораторій, виразили стурбованість, попередивши, що технології, над якими вони працюють, можуть погрожувати самому існуванню людства. Вони стверджують, що такі розробки мають бути розглянуті як соціальні ризики, що стоять на одному рівні з пандеміями та ядерними війнами.

Зниження ризику вимирання людства через штучний інтелект повинно бути глобальним пріоритетом нарівні з іншими ризиками соціального масштабу, такими як пандемії та ядерні війни“, – це головне повідомлення відкритого листа лідерів галузі, що складається з одного речення. Очікується, що документ буде опубліковано некомерційною організацією Center for AI Safety. Його підписали понад 350 керівників, дослідників та інженерів, що працюють у сфері штучного інтелекту. Серед підписантів, зокрема, Сем Альтман (Sam Altman), голова OpenAI; Деміс Хассабіс (Demis Hassabis), голова Google DeepMind; Даріо Амодей (Dario Amodei), голова Anthropic, а також Джефрі Хінтон (Geoffrey Hinton) та Йошуа Бенджіо (Yoshua Bengio).

Зростає загальне занепокоєння щодо подальшого розвитку систем штучного інтелекту. Існує думка, що масштабні платформи, такі як ChatGPT, можуть бути використані для поширення дезінформації та пропаганди, а також можуть призвести до втрати роботи для 300 мільйонів людей в Європі та США. Лідери галузі поділяють ці стурбованості, вважаючи, що технології, які вони розробляють, представляють серйозні ризики і повинні бути жорстко регульовані державою. В той же час, деякі скептики стверджують, що технології штучного інтелекту ще занадто неозрілі, щоб представляти реальну загрозу для людства, тому ми повинні сконцентруватися на більш актуальних проблемах – упереджених та некоректних відповідях систем штучного інтелекту.

Тим не менш, є думка, що штучний інтелект, здатний конкурувати з людськими можливостями, може з’явитися вже найближчим часом. Щоб уникнути можливих негативних наслідків, лідери галузі пропонують створити організацію, що займатиметься регулюванням штучного інтелекту.


Телеграм double.newsТелеграм double.news

Схожі Новини
Anthropic Claude Sonnet 4.5

Anthropic випустила Claude Sonnet 4.5 з розширеними можливостями програмування

Anthropic оголосила про запуск нової моделі штучного інтелекту Claude Sonnet 4.5, яку позиціонує як найпродуктивнішу у сфері розробки програмного забезпечення. Головна особливість моделі — здатність автономно працювати понад 30 годин, створюючи та налагоджуючи готові до використання застосунки.
Детальніше
Instagram

Instagram тестує новий інтерфейс із акцентом на Reels

Instagram представив новий інтерфейс, у якому головну увагу приділено вкладці Reels. Тепер саме сторінка з короткими відео відображається першою, що підкреслює ставку компанії на цей формат контенту.
Детальніше
Квантовий комп'ютер

GPT-5 допоміг вирішити ключову проблему у квантових обчисленнях

Модель GPT-5 від OpenAI допомогла довести межі зменшення помилок у квантових обчисленнях. Дослідження може стати першим випадком, коли AI зробив реальний внесок у розв’язання відкритих проблем теоретичної інформатики.
Детальніше