
Google DeepMind представив Gemini Robotics On‑Device — автономну модель для керування роботами, яка працює без підключення до хмари. Про це пише ArsTechnica. Це серйозний прорив у сфері робототехніки: тепер роботи можуть швидко реагувати на команди, не потребуючи мережевого з’єднання.
Що нового у моделі Gemini Robotics On‑Device?
- Без хмари: усі обчислення відбуваються локально, що пришвидшує реакцію роботів;
- VLA-модель (Vision-Language-Action): поєднує зір, мову та дії;
- Працює “з коробки” для базових завдань, як-от зав’язування шнурівок чи складання сорочок;
- Адаптація за 50–100 демонстрацій: розробники можуть навчити модель новим діям через ручне керування;
Під капотом: як працює автономний робот
Модель використовує мультимодальне розуміння світу, успадковане від Gemini 2.0, щоб інтерпретувати нові ситуації та генерувати нові дії. Вперше в історії DeepMind розробникам надано SDK для кастомізації поведінки роботів. Серед підтримуваних платформ — гуманоїд Apollo і маніпулятор Franka FR3.
Безпека в автономному режимі
Gemini Robotics On‑Device — лише один рівень керування, тож відповідальність за безпечну поведінку лежить на розробниках. Google рекомендує інтегрувати модель із Gemini Live API, що містить багаторівневу систему контролю, або реалізовувати власні захисти на нижньому рівні (контроль сили, швидкості тощо).
🚀Перспективи: автономна робототехніка у побуті
Без хмари — більше приватності та стабільності. Це критично важливо для використання у лікарнях, домах або віддалених середовищах. Carolina Parada підкреслює: це лише початок — у майбутньому модель буде оновлено до рівня Gemini 2.5, який демонструє значний прорив у якості генеративного ШІ.