home

Realistischer Kostümroboter Olaf mit Reinforcement‑Learning-Steuerung

Das Team demonstriert, dass ein animierter Charakter wie Olaf realistisch in die physische Welt gebracht werden kann, indem maßgeschneiderte Mechanismen und Reinforcement‑Learning‑Kontrolle kombiniert werden, um Bewegung, Geräuschreduktion und Thermomanagement zu optimieren.

Design‑Herausforderungen

Non‑physische Bewegungen und untypische Proportionen erfordern neue Mechanik‑ und Steuerungsansätze. Eine weiche Schaumstoff‑Klappe versteckt asymmetrische Beine, sodass die Füße scheinbar entlang des Körpers gleiten. Sphärische und planare Gelenke ermöglichen die Bewegung von Armen, Mund und Augen trotz begrenztem Platz im Kostüm.

Kontrollstrategie

Reinforcement Learning (RL) wird mit Animationsreferenzen trainiert. Zusätzliche Belohnungen reduzieren harte Kontaktsounds und verhindern Überhitzung der Motoren. Temperaturwerte werden in die Politik‑Inputs einbezogen, um motorische Belastung innerhalb sicherer Grenzen zu halten.

Evaluation

Simulationen und reale Hardware‑Tests zeigen, dass das Modell sehr glaubwürdig ist. Die Lösung übertrifft bekannte costumed‑robotic‑Character‑Techniken im Hinblick auf Realismus und Effizienz.

Disziplinen

Robotics (cs.RO) und Machine Learning (cs.LG) als Forschungsfelder.

Autoren

David Müller, Espen Knoop, Dario Mylonopoulos, Agon Serifi, Michael A. Hopkins, Ruben Grandia, Moritz Bächer.

Veröffentlichung

arXiv:2512.16705 (18. Dezember 2025).

Quelle

https://arxiv.org/abs/2512.16705