
У відповідь на зростаючу стурбованість щодо безпеки штучного інтелекту компанія Anthropic внесла зміни до політики використання свого мовного чат-бота Claude. Згідно з оновленими правилами, тепер суворо заборонено застосовувати Claude для створення високоефективних вибухових речовин або розробки біологічної, хімічної, радіологічної чи ядерної зброї. Про це пише PCMag.
Чітке формулювання небезпечних сценаріїв
Раніше умови використання вже містили заборону на «розробку зброї, вибухових речовин, небезпечних матеріалів або систем, що спричиняють шкоду», проте тепер Anthropic вперше деталізувала заборонені категорії. Як зазначає The Verge, нові умови акцентують на конкретних видах зброї масового ураження та їхніх прекурсорах.
Такі уточнення стали реакцією на зростаючу кількість наукових досліджень, що демонструють потенційні ризики використання великих мовних моделей (LLM) у розробці заборонених технологій.
Відкритість до політичного діалогу
На тлі посилення безпекових обмежень компанія водночас зняла повну заборону на створення політичного контенту. Тепер Claude може генерувати матеріали, пов’язані з політичними кампаніями або лобізмом, якщо вони не порушують демократичні процеси або не спрямовані на маніпуляцію виборцями.
У заяві Anthropic наголошено, що новий підхід покликаний «дозволити легітимний політичний дискурс», водночас захищаючи виборчі процеси від дезінформації та втручання.
Заборона на кіберзлочинність
Окрім того, оновлення політики включає нові положення, що забороняють використання Claude для проведення кібератак або створення шкідливого програмного забезпечення. Це важливий крок у контексті зростання занепокоєння щодо потенційного використання ШІ у злочинних цілях.