
Anthropic, оскаржуватиме рішення Міністерства оборони США, яке визнало її ризиком для ланцюга постачання. Керівництво стартапу заявляє, що дії Пентагону не мають достатнього юридичного обґрунтування. Про це пише Engadget.
Конфлікт виник після того, як Anthropic відмовилася змінити політику використання своїх AI-технологій. Компанія наполягає на обмеженнях щодо застосування штучного інтелекту для масового спостереження та створення автономної зброї.
Чому Пентагон визнав Anthropic ризиком
Генеральний директор Anthropic Даріо Амодей підтвердив у корпоративному блозі, що компанія отримала офіційний лист від Міністерства оборони США. У документі зазначено, що продукти компанії визнані ризиком для ланцюга постачання, і це рішення набуває чинності негайно.
За словами Амодея, компанія не погоджується з таким рішенням.
«Ми не вважаємо ці дії юридично обґрунтованими і не маємо іншого вибору, окрім як оскаржити їх у суді», -— заявив він.
Суперечка через використання штучного інтелекту

Причиною конфлікту стали нові правила, які Міністерство оборони запропонувало для використання штучного інтелекту у державних і військових проєктах.
Пентагон вимагав, щоб Anthropic дозволила використовувати свої моделі штучного інтелекту в будь-яких законних сценаріях. Однак компанія відмовилася погоджуватися на такі умови без чітких гарантій, що її технології не застосовуватимуться для масового спостереження за громадянами або створення повністю автономних бойових систем.
Саме після цієї відмови уряд США пригрозив компанії статусом ризику для ланцюга постачання. Пізніше президент Дональд Трамп також наказав федеральним агентствам припинити використання технологій Anthropic.
Переговори з Міністерством оборони

Попри конфлікт, сторони продовжують обговорювати можливі варіанти співпраці. За словами Амодея, протягом останніх днів Anthropic провела продуктивні переговори з представниками оборонного відомства.
Компанія намагається знайти компроміс, який дозволить співпрацювати з Пентагоном, не порушуючи власних принципових обмежень щодо використання штучного інтелекту. Зокрема, Anthropic наполягає на двох ключових умовах: її технології не повинні застосовуватися для масового спостереження за громадянами та для розробки повністю автономної летальної зброї. Якщо сторонам не вдасться досягти домовленостей, компанія розглядатиме альтернативні сценарії подальшої співпраці.

