Google DeepMind розгорнула ШІ‑модель Gemini Robotics локально на роботі
Google DeepMind представила Gemini Robotics On-Device — локальну версію своєї моделі штучного інтелекту, яка дозволяє роботам працювати без підключення до хмари. Це перша повноцінна VLA-модель (vision-language-action) компанії, яка функціонує виключно на пристрої. Про це пише The Verge.
На відміну від гібридної моделі Gemini, нова версія оптимізована для автономної роботи в умовах з низькою або відсутньою мережею. Вона забезпечує швидке реагування, підтримку складних завдань, узагальнення нових сценаріїв та точний контроль рухів — усе без підключення до хмари.
Модель була натренована на роботі ALOHA, але вже адаптована до інших платформ, зокрема до гуманоїда Apollo компанії Apptronik і дворукого Franka FR3. Для моделі достатньо всього 50–100 прикладів, щоб опанувати нові дії.
Разом з моделлю Google випустила SDK для тестування, навчання та інтеграції моделі у власні системи. Це вперше, коли DeepMind відкриває доступ до свого ШІ для розробників. Важливо, що модель не містить вбудованої системи безпеки — компанія закликає інтегрувати власні захисні механізми.
Gemini Robotics On-Device вже доступна для обмеженого кола розробників у межах програми Trusted Tester.