- 
Skild AI представил систему контекстного обучения для роботовСтартап Skild AI представил свою систему контекстного обучения (In-context Learning) для роботов, которая является результатом обучения их многотелесного мозга для роботов (omni-bodied robot brain) и позволяет роботам гибко адаптироваться к возможным изменениям своей структуры. 
 
- 
Jim Fan из NVIDIA о внедрении AI в роботовJim Fan (AI-директор в NVIDIA) рассказал о дорожной карте Nvidia по внедрению физического искусственного интеллекта. 
 
- 
Boston Dynamics показали как Atlas научился ходить и кувыркатьсяВ рамках исследовательского партнерства между Boston Dynamics и Институтом робототехники и искусственного интеллекта (RAI Institute) проведены исследовательские работы по использованию обучения с подкреплением, с использованием методов на захвата движений человека и анимации. 
 
- 
ASAP — подход по переносу обучения из симуляции в реальность от NvidiaИсследователи из Carnegie Mellon University и NVIDIA представили работу «ASAP: Aligning Simulation and Real-World Physics for Learning Agile Humanoid Whole-Body Skills«, которая предлагает способ преодолеть разрыв между симуляцией и реальными физическими условиями. 
 
- 
Open Duck Mini — открытый проект по изготовлению диснеевского BDX droidOpen Duck Mini — опенсорс-проект по изготовлению диснеевского BDX droid. 
 
- 
LeRobot — открытые модели и утилиты для робототехники от Hugging FaceLeRobot — это открытые модели и утилиты машинного обучения для робототехники от Hugging Face 🤗. 
 
- 
Асимметричный трехногий робот-стул самостоятельно учится ходитьИсследователи с Кафедры механоинформатики (Высшая школа информационных наук и технологий, Токийский университет (Токио, Япония)) сконструировали трёхногий стул, который самостоятельно учится ходить. 
 
- 
Робот-андроид Unitree H1 научился делать сальто назадКитайская компания Unitree показала как её человекоподобный робот Unitree H1 научился делать сальто назад. 
 
- 
Двуногого робота Digit обучили ходить используя только симуляциюИсследователи из Беркли (Калифорния, США) продемонстрировали, что можно обучить двуногого робота ходить используя только симуляцию. Reinforcement Learning, машинное обучение, нейронная сеть, обучение, робототехника, симулятор, ходить
 
- 
Четырёхногого робота обучили «экстремальному паркуру»Исследователи из Университета Карнеги Меллон (Питтсбург, Пенсильвания, США) продемонстрировали как используя обучение с подкреплением можно обучить четырёхногого робота Unitree A1 выполнять динамические упражнения «экстремального паркура». 
 

Преимуществ нет, за исключением читабельности: тип bool обычно имеет размер 1 байт, как и uint8_t. Думаю, компилятор в обоих случаях…