Anthropic заборонила Claude допомагати у створенні зброї масового ураження

Anthropic

У відповідь на зростаючу стурбованість щодо безпеки штучного інтелекту компанія Anthropic внесла зміни до політики використання свого мовного чат-бота Claude. Згідно з оновленими правилами, тепер суворо заборонено застосовувати Claude для створення високоефективних вибухових речовин або розробки біологічної, хімічної, радіологічної чи ядерної зброї. Про це пише PCMag.

Чітке формулювання небезпечних сценаріїв

Раніше умови використання вже містили заборону на «розробку зброї, вибухових речовин, небезпечних матеріалів або систем, що спричиняють шкоду», проте тепер Anthropic вперше деталізувала заборонені категорії. Як зазначає The Verge, нові умови акцентують на конкретних видах зброї масового ураження та їхніх прекурсорах.

Такі уточнення стали реакцією на зростаючу кількість наукових досліджень, що демонструють потенційні ризики використання великих мовних моделей (LLM) у розробці заборонених технологій.

Відкритість до політичного діалогу

На тлі посилення безпекових обмежень компанія водночас зняла повну заборону на створення політичного контенту. Тепер Claude може генерувати матеріали, пов’язані з політичними кампаніями або лобізмом, якщо вони не порушують демократичні процеси або не спрямовані на маніпуляцію виборцями.

У заяві Anthropic наголошено, що новий підхід покликаний «дозволити легітимний політичний дискурс», водночас захищаючи виборчі процеси від дезінформації та втручання.

Заборона на кіберзлочинність

Окрім того, оновлення політики включає нові положення, що забороняють використання Claude для проведення кібератак або створення шкідливого програмного забезпечення. Це важливий крок у контексті зростання занепокоєння щодо потенційного використання ШІ у злочинних цілях.


Телеграм double.newsТелеграм double.news

Схожі Новини
Ілон Маск

AI-бум додав понад $500 млрд до статків техномільярдерів США у 2025 році

Стрімке зростання інтересу інвесторів до компаній у сфері штучного інтелекту суттєво змінило баланс багатства серед найбагатших людей світу. Лише за 2025 рік AI-бум додав понад пів трильйона доларів до сукупних статків провідних американських технологічних магнатів.
Детальніше
Китай готує жорсткі правила для людиноподібних AI-систем

Китай готує жорсткі правила для людиноподібних AI-систем

Китайська влада оприлюднила проєкт нових регуляторних вимог, спрямованих на контроль використання штучного інтелекту, який імітує поведінку людини. Ініціатива є частиною ширшої стратегії Пекіна щодо розвитку AI як ключової галузі економіки, водночас посилюючи державний нагляд за безпекою та етичними аспектами технологій.
Детальніше
ChatGPT

ChatGPT може почати просувати спонсорований контент у відповідях

OpenAI розглядає можливість інтеграції реклами безпосередньо у відповіді ChatGPT. За даними джерел, ідеться не про класичні банери, а про пріоритетне відображення спонсорованого контенту в результатах роботи мовної моделі.
Детальніше