
DeepSeek, китайська компанія, що спеціалізується на розробці великих мовних моделей, випустила оновлення своєї моделі R1 — DeepSeek-R1-0528. Це оновлення спрямоване на покращення здатності моделі до логічного мислення та інференції, завдяки використанню додаткових обчислювальних ресурсів та оптимізації алгоритмів на етапі посттренування. Про це пише TechCrunch.
Модель DeepSeek-R1-0528 демонструє високу продуктивність у задачах, пов’язаних з математикою, програмуванням та загальною логікою. Зокрема, вона перевершує моделі xAI’s Grok 3 mini та Alibaba’s Qwen 3 у генерації коду, поступаючись лише OpenAI’s o4 mini та o3.
DeepSeek-R1-0528 доступна на платформі Hugging Face під ліцензією MIT, що дозволяє її комерційне використання. Це сприяє ширшому впровадженню моделі в дослідницьких та комерційних проєктах. Однак варто зазначити, що модель має значний розмір — 685 мільярдів параметрів, що ускладнює її використання на звичайному споживчому обладнанні.
Початкова версія моделі R1 була представлена DeepSeek у січні 2025 року та відзначилася високою продуктивністю при значно нижчих витратах на тренування порівняно з конкурентами. Це викликало значний інтерес у галузі штучного інтелекту та сприяло зростанню популярності компанії.
Очікується, що в майбутньому DeepSeek представить ще більш потужну модель R2, яка була анонсована раніше, але її реліз поки що не відбувся.
Оновлення моделі DeepSeek-R1 до версії 0528 підкреслює прагнення компанії до постійного вдосконалення своїх технологій та підтримки відкритості в галузі штучного інтелекту. Це створює нові можливості для дослідників та розробників, заохочуючи подальший розвиток інновацій у сфері AI.