Исследователи из Университета Токио (Япония) и Preferred Networks, использовали технологию глубокого обучения с подкреплением (deep reinforcement learning), чтобы научить передвигаться роботов, сконструированных из веток деревьев и пары сервомашинок.
Чтобы научить этих роботов передвигаться, их «конструктивные элементы» сканируются при помози 3D-сканера, чтобы их можно было загрузить в симулятор (MuJoCo). В симуляторе, вся конструкция, имитирующая робота, обучается с помощью глубокого обучения (DDPG — Deep Deterministic Policy Gradient), когда поощряются движения, которые приводят к большему передвижению робота.
Управление самим роботом осуществляется через контроллер Arduino Mega 2560, а в роли сервомашинок используются — Kondo KRS-2572HV.
Статьи
Azumi Maekawa, Ayaka Kume, Hironori Yoshida, Jun Hatori, Jason Naradowsky, Shunta Saito : Improvised Robotic Design With Found Objects
Ссылки
Robots Made Out of Branches Use Deep Learning to Walk
Continuous control with deep reinforcement learning
По теме
Обучение четвероногого робота ходьбе при помощи тренировки нейронной сети в симуляции
Обучение робота действию через однократную демонстрацию
Робота научили решать задачи на основе базовых знаний
Обучение робота ходьбе при помощи нейронной сети
Стрим про Reinforcement Learning