Крипто әлеміндегі жаңалықтар

21.04.2026
16:15

Экс-сотрудники Google представили ИИ для роботов с «необученными» навыками

роботы играют в футбол robots playing football

Основанный бывшими инженерами Google стартап Physical Intelligence представил модель π0.7. Разработчики заявили о «качественном скачке» в способности ИИ обобщать навыки и выполнять задачи, которым его не обучали напрямую.

Система относится к классу «зрение-язык-действие» (Vision-Language-Action, или VLA) и предназначена для управления роботами. 

В отличие от предыдущих решений, π0.7 продемонстрировала признаки композиционного обобщения — способности комбинировать ранее усвоенные навыки для решения новых задач.

Необученные задачи и перенос между роботами

В ходе экспериментов модель показала ряд неожиданных способностей. В частности, π0.7 смогла управлять новым типом робота и складывать футболки, несмотря на отсутствие обучающих данных для этой конкретной платформы.

Результаты сопоставимы с уровнем операторов, имеющих сотни часов опыта телоуправления, отметили программисты. 

Инструмент также смог разобраться в использовании ранее незнакомых устройств, включая кухонную технику. Например, робот выполнил часть задачи по приготовлению батата в аэрогриле, хотя подобных сценариев в обучающей выборке не было.

По словам разработчиков, это стало возможным за счет объединения разрозненных навыков — аналогично тому, как языковые модели комбинируют знания из разных областей.

Управление через язык и контекст

Одним из ключевых отличий π0.7 стала возможность управлять не только через команды «что делать», но и через уточнение «как делать».

Модель принимает:

  • текстовые инструкции;
  • метаданные (например, скорость и качество выполнения);
  • визуальные субцели — изображения ожидаемого результата шага.

Некоторые из субцелей вспомогательная система может создавать прямо во время работы. Это дает роботу возможность корректировать поведение без дообучения.

Такой подход позволяет объединять данные от разных источников — видео, телеметрию с роботов и автономно собранные эпизоды — в единую систему обучения.

Первый шаг к «универсальным» роботам

В Physical Intelligence отметили, что раньше подобные модели требовали дообучения под каждую задачу — как ранние версии языковых моделей. π0.7, напротив, работает «из коробки» и адаптируется к новым сценариям через язык.

Команда подчеркнула: такой уровень обобщения долгое время считался сильной стороной LLM, но в робототехнике оставался недостижимым.

Несмотря на прогресс, модель пока не всегда справляется со сложными задачами без пошаговых подсказок. Однако при последовательных инструкциях качество выполнения заметно растет.

В будущем такие инструкции помогут обучать более автономные машины, способные действовать без человека. В Physical Intelligence считают, что π0.7 показывает первые признаки перехода к универсальным роботам, которые адаптируются к новым условиям без ручной настройки под каждую задачу.

Напомним, в феврале компания Carbon Robotics выпустила ИИ-модель Large Plant Model, которая умеет распознавать виды растений для борьбы с сорняками.