Учёные MIT подсмотрели у больших языковых моделей ИИ эффективный метод обучения роботов
Читать в полной версииИсследователи из Массачусетского технологического института (MIT) разработали собственный метод обучения роботов новым навыкам. Вместо стандартного набора сфокусированных данных, которые обычно используются при обучении роботов, они задействовали большие массивы данных, тем самым имитируя процесс обучения больших языковых моделей (LLM).
По мнению исследователей из MIT, имитационное обучение, когда робот учится на действиях человека, выполняющего ту или иную задачу, может оказаться неэффективным при несущественном изменение окружающей обстановки. К примеру, у робота могут возникнуть трудности после обучения, если он попадёт в обстановку с другим освещением или предметами.
В своей работе исследователи задействовали разные LLM, такие как GPT-4, чтобы повысить качество обучения методом перебора данных. «В области языковых моделей все данные — это просто предложения. В робототехнике, учитывая всю неоднородность данных, если вы хотите проводить предварительное обучение аналогичным образом, то потребуется другая архитектура», — рассказал один из авторов исследования Лируй Ванг (Lirui Wang).
Исследователи разработали новую архитектуру под названием Heterogeneous Pretrained Transformers (HPT), которая объединяет информацию, получаемую от разных датчиков и из разных сред. Собираемые таким образом данные объединяются в обучаемые модели с помощью «трансформера». Конечному пользователю нужно лишь указать дизайн робота, его конфигурацию и навык, которому он должен обучиться.
«Мы мечтаем о создании универсального мозга робота, который можно было бы загрузить и использовать в своём роботе без какого-либо обучения. Пока мы находимся на ранних стадиях, но мы собираемся продолжать упорно работать и надеемся, что масштабирование приведёт к прорыву в робототехнике, как это было с большими языковыми моделями», — рассказал один из авторов исследования Дэвид Хелд (David Held).