13.05.2006
|
ARMAR ist ein »humanoider Roboter«, der speziell als Assistent des Menschen konzipiert ist und derzeit im Sonderforschungsbereich (SFB) 588 bei der Deutschen Forschungsgemeinschaft (DFG) von mehreren Partnern entwickelt wird. Das Fraunhofer-Institut für Informations- und Datenverarbeitung IITB in Karlsruhe leitet das Teilprojekt R2, in dem - im Gegensatz zu konventionellen Robotersteuerungssystemen, denen jede Bewegung exakt vorgegeben wird - ein informationsbasiertes und lernfähiges Überwachungs- und Regelungskonzept erarbeitet wird. Das heißt, der Roboter kann aufgrund von Daten, die er zum Beispiel über seine Augen (Kameras), Ohren (Mikrofone) oder Hände (Kraftsensoren) aufnimmt, seine Bewegungen intelligent verändern.
Für die Entwicklung und die Verbesserung verschiedener Fähigkeiten (englisch: Skills), die auf der Auswertung von Informationen (Bilder, Töne, Berührungen) beruhen, wurde am IITB eine Mechatronik-Plattform, ein vereinfachtes »Roboter-Modell«, eingesetzt. Erst nachdem sich die neuen Fähigkeiten dort bewährt haben, werden sie auf ARMAR übertragen.
Eine charakteristische Fähigkeit humanoider Roboter im Haushalt könnte darin bestehen, beliebige, auch wackelige Gegenstände auf einem Tablett sicher zu transportieren. Als Beispiel dafür, wie gekonnt Roboter »kellnern« können, wurde ein Skill entwickelt, in dem der Roboter eine Kugel balanciert, die er mit seinen beiden Armen auf einem ebenen Tablett transportiert. Das Wegrollen der Kugel wird von der 3D-Stereokamera (»Augen«) vermessen und durch Gegenkippen des Tabletts ausgeglichen. Was auch manchen Kellner ins Schwitzen bringt, schafft der Roboter fast immer.
Fällt trotzdem einmal etwas herunter, muss der Gegenstand gefunden und gegriffen werden. Zuerst wird eine grobe Richtung des Geräusches durch einen Audiosensor-Array (»Ohren«) erkannt. Dieses Messergebnis wird verwendet, um die 3D-Kamera im Kopf des Roboters (»Augen«) in Richtung der Geräuschquelle auszurichten. Danach wird die Bewegung und Richtung zum Ziel berechnet und ausgeführt. Durch eine zusätzliche winzige 3D-Kamera (»Brille«), die in die Roboterhand integriert ist, kann der Vorgang des Greifens genau gesteuert werden.
Für den Umgang mit besonders glatten oder leicht zerbrechlichen Gegenständen muss der Roboter eine Art »Fingerspitzengefühl« erlernen. Beim Tragen von glatten Objekten wie Gläsern oder einem Stück Seife mit beiden Roboterarmen muss also die Anpresskraft zwischen den Greifern und dem Objekt so geregelt werden, dass das Objekt nicht abrutscht oder aber zerdrückt wird.
Hierzu wurde ein neuartiger, in die Robotermechanik integrierbarer Sensor entwickelt, der die Schlupfbewegung zwischen Hand und Objekt messen kann. Von den Daten ausgehend wird die Kraftausübung auf den Gegenstand so geregelt, dass er weder herunter fällt noch zerdrückt wird. Dem Eierlauf steht nichts mehr im Wege.
Artikel vom 13.05.2006