Ein Forschungsteam der Google-Abteilung für Robotik und des Georgia Institute of Technology hat herausgefunden, wie vierbeinige Roboter das Laufen lernen können, ohne die Hilfe von Menschen zu benötigen.
Wie MIT Technology Review berichtet, implementierten die Forscher ein Deep-Enforcement-Learning-Framework, das ein Multitasking-Lernverfahren, einen Controller zum automatischen Zurücksetzen und ein Framework mit Sicherheitsbeschränkungen kombiniert.
Dabei führt jeder Fehler beim Lernen dazu, dass sich der Roboter erholt und es erneut versucht, anstatt die Hilfe eines Menschen zu benötigen.
Ein Roboter kann mit dem Framework jeweils 80 Minuten lang trainieren, um ohne menschliche Interaktion Erfahrungen zu sammeln.
Es lernt mehrere Fahrtrichtungen gleichzeitig und kann so einen begrenzten Trainingsraum effektiv nutzen (und ohne jemals an den Rändern hängen zu bleiben).
Zuerst lernt der Roboter Vorwärts- und Rückwärtsbewegung auf einer ebenen Fläche, dann auf einer weichen Matratze und schließlich auf einer Fußmatte mit Spalten.
Es ist dann auch möglich, autonom die Fähigkeit zu lehren, sich über die drei verschiedenen Oberflächentypen nach links und rechts zu drehen.
Nach etwa 15 Stunden ist der vierbeinige Roboter in der Lage, zuverlässig und fehlerfrei über eine Vielzahl schwieriger Geländetypen zu laufen.
Zu diesem Zeitpunkt können die Forscher ein Gamepad anschließen und die Kontrolle über den Laufroboter übernehmen.
Empfohlen von unseren Redakteuren
Der beeindruckendste Aspekt dieser Forschung ist die Fähigkeit, einen Roboter in einem Trainingsbereich zu platzieren und ihn in weniger als einem Tag das Laufen mit Versuch und Irrtum und einigen cleveren Algorithmen beizubringen.
Die Forscher geben zu, dass sie sich derzeit auf einen "robusten Stand-up-Controller" verlassen, der manuell entwickelt wurde, hoffen jedoch, ihn durch eine erlernte Alternative zu ersetzen und dem Roboter zu ermöglichen, "eine Erholung von der realen Erfahrung zu trainieren" .








