
Anthropic зіткнулася з репутаційним інцидентом після того, як спроба видалити витік власного коду призвела до масового блокування репозиторіїв на GitHub. У результаті під обмеження потрапили тисячі проєктів, включно з легітимними копіями відкритого коду компанії.
Як повідомляє TechCrunch, ситуація виникла через помилку під час розсилки запитів на видалення контенту та вже частково виправлена, однак вона підсвітила ризики роботи з відкритими репозиторіями та управління інтелектуальною власністю в AI-індустрії.
Як стався витік коду Claude
Інцидент розпочався після того, як один із розробників виявив, що у новому релізі Anthropic випадково відкрила доступ до частини вихідного коду свого продукту — CLI-додатку Claude Code. Цей інструмент є одним із ключових рішень компанії та базується на її мовній моделі.
Після виявлення витоку код швидко поширився серед ентузіастів штучного інтелекту. Його почали активно аналізувати, намагаючись зрозуміти, як саме Anthropic реалізує роботу своєї LLM. Фрагменти коду з’явилися у численних репозиторіях на GitHub.
Масове блокування репозиторіїв

Щоб обмежити поширення витоку, Anthropic подала запит на видалення контенту відповідно до законодавства США про авторське право. У результаті GitHub застосував обмеження приблизно до 8 100 репозиторіїв.
Проблема полягала в тому, що під блокування потрапили не лише репозиторії з витоком коду, а й легітимні копіїп проєкту Claude Code, сторонні проєкти розробників, які не порушували правил, а також інші репозиторії в межах тієї ж мережі форків. У результаті це спричинило хвилю обурення серед користувачів GitHub, які тимчасово втратили доступ до власного коду.

