
Компанія DeepSeek представила концепцію самовдосконалюваних моделей на основі методу «judge-feedback» — це коли ШІ сам оцінює власні відповіді, порівнює кілька варіантів і обирає найкращий. Такий підхід дозволяє постійно покращувати результати без участі людини.
Це суттєво відрізняється від традиційного підходу з навчанням на людських відгуках, який використовують, наприклад, в OpenAI чи Anthropic. DeepSeek стверджує, що їхня технологія дозволяє моделі ставати кращою з кожною взаємодією, відкриваючи нові горизонти у створенні гнучких та адаптивних ІІ-систем.
Компанія вже здобула увагу у 2024 році завдяки моделі DeepSeek-V2 та особливо DeepSeek Coder — спеціалізованому рішенню для програмування. Але найбільший прорив стався з релізом DeepSeek R1. Ця модель, доступна у відкритому коді (за ліцензією MIT), показала результати, які наближаються до GPT-4 від OpenAI в задачах з математики, логіки й кодування.
DeepSeek R1 має 236 мільярдів параметрів і тренувалась на 6 трильйонах токенів даних, що ставить її в один ряд з найпотужнішими моделями світу. Особливо вражає те, що компанія дозволяє комерційне використання свого ШІ, що може суттєво стимулювати розвиток локальних проєктів на базі R1.
Ініціатива DeepSeek — ще один доказ стрімкого зростання впливу китайських компаній у сфері штучного інтелекту. Їхній підхід до відкритості, самонавчання і масштабованості може стати основою нової ери в розвитку AI.
Очікується, що такі моделі сприятимуть не тільки появі нових сервісів, а й зміні парадигм розробки — від людської перевірки до автономної оптимізації.