
Китайська влада оприлюднила проєкт нових регуляторних вимог, спрямованих на контроль використання штучного інтелекту, який імітує поведінку людини. Ініціатива є частиною ширшої стратегії Пекіна щодо розвитку AI як ключової галузі економіки, водночас посилюючи державний нагляд за безпекою та етичними аспектами технологій. Про це повідомляє Bloomberg.
Що передбачають нові вимоги
Згідно з проєктом, оприлюдненим Cyberspace Administration of China, постачальники людиноподібних AI-систем зобов’язані забезпечити, щоб їхні сервіси були етичними, безпечними та прозорими.
Ключова вимога проєкту полягає в тому, що користувачі мають бути чітко та регулярно поінформовані про взаємодію зі штучним інтелектом: під час входу в сервіс, не рідше ніж кожні дві години безперервного спілкування, а також у випадках, коли система фіксує ознаки надмірної залежності від AI. Це має підвищити прозорість використання людиноподібних AI-сервісів і зменшити ризики психологічного впливу на користувачів.
Безпека, етика та ідеологія
Окремо в документі наголошується, що людиноподібні AI-системи мають діяти відповідно до так званих основних соціалістичних цінностей та не створювати контент, який може загрожувати національній безпеці, підривати соціальну стабільність або суперечити державній інформаційній політиці. Таким чином влада прагне поєднати розвиток AI-технологій із жорстким ідеологічним та інформаційним контролем.
Проєкт правил також запроваджує додаткові вимоги до компаній, які запускають або масштабують людиноподібні AI-функції: постачальники мають проходити обов’язкову перевірку безпеки, подавати звіти до регіональних органів кібернагляду під час запуску нових можливостей, а також окремо звітувати у разі досягнення сервісом 1 млн зареєстрованих користувачів або 100 тис. активних користувачів на місяць.

