
Компанія Anthropic офіційно припинила доступ OpenAI до свого сімейства мовних моделей Claude. Причиною такого кроку стало використання моделей у спосіб, який, за словами Anthropic, суперечить комерційним умовам співпраці.
OpenAI порушила правила використання Claude
Як повідомляє Wired , OpenAI використовувала Claude для підключення до внутрішніх інструментів, що дозволяло проводити порівняння з власними мовними моделями у сферах програмування, генерації тексту та безпеки. Крім того, технічні спеціалісти OpenAI застосовували Claude як інструмент для розробки перед запуском GPT-5, що Anthropic вважає прямим порушенням умов використання сервісу.
В офіційному коментарі для TechCrunch представник Anthropic заявив:
“Технічні фахівці OpenAI використовували наші інструменти для кодування перед запуском GPT-5, що є порушенням наших умов надання послуг.”
Порівняльне тестування — дозволене, створення конкурентів — ні
Хоча Anthropic й заблокувала OpenAI загальний доступ до API Claude, вона залишила можливість для обмеженого використання з метою тестування та оцінки безпеки. Це відповідає галузевій практиці щодо прозорості та взаємного контролю якості ШІ-моделей.
Однак у компанії підкреслили: використання Claude для розробки конкурентних рішень є неприпустимим. За даними джерел, така позиція вже вплинула на інші взаємини — наприклад, на рішення припинити співпрацю з Windsurf (пізніше придбана компанією Cognition), яку підозрювали у зв’язках з OpenAI.
Відповідь OpenAI: “Це стандартна практика”
У відповідь OpenAI заявила, що використання Claude було “галузевим стандартом”. Представник компанії зазначив:
“Ми поважаємо рішення Anthropic, хоча воно й розчаровує, враховуючи, що наш API залишається доступним для них.”
Таким чином, OpenAI натякає на односторонність обмеження, адже сама компанія не перешкоджає Anthropic у використанні своїх продуктів.