Mehr „Hausverstand“ für Roboter

Wenn ein autonomer Roboter verlässlich agieren soll, muss er auch mit unerwarteten und mehrdeutigen Situationen umgehen können, was aber nach wie vor eine große Herausforderung darstellt. Grazer Forscher wollen den autonomen Systemen nun mehr „Hausverstand“ beibringen.

Serviceroboter sollen künftig zuverlässig Aufgaben lösen können, auch wenn Unvorhersehbares passiert. Vor allem in gefährlichen Situationen wie bei Umweltkatastrophen oder Industrieunfällen oder einem Tunnelunglück wäre der Einsatz von intelligenten Robotern hilfreich.

Forscher beschäftigen sich daher weltweit mit der Frage, wie die künstlichen Intelligenzen in für sie ungewöhnlichen Situationen ihre Aufgaben erledigen können. Gerald Steinbauer vom Institut für Softwaretechnologie der TU Graz betreibt mit seinen Mitarbeitern seit Jahren Grundlagenforschung zur Entwicklung des intelligenten autonomen Roboters.

„Im menschlichen Alltag passieren immer wieder Überraschungen oder kleine Irrtümer: Beispielsweise, dass man mit dem Lift im falschen Stockwerk landet oder ins falsche Zimmer geht“, schilderte Steinbauer. Wenn ein Roboter jedoch nicht merkt, dass er im falschen Stockwerk oder dem falschen Raum ist, kann er seine Aufgabe nicht erfüllen, weil er schlicht und ergreifend fehl am Platz ist. Schwierig wird es für Roboter auch, wenn ihm ein Objekt aus der Greifhand fällt, wenn er aufgrund der Sensorik ein Objekt nicht erkennt oder jemand die erwartete Umgebung verändert.

Maschinelles Schlussfolgern

„Menschen verwenden Schlussfolgerungen, um mit solchen Phänomenen umzugehen und etwa Irrtümer zu entdecken, das heißt, sie denken über den Lauf der Dinge nach, um auf die Fehlerquelle oder möglicherweise Fehlinterpretation zu kommen“, erklärte Steinbauer. Davon ausgehend können sie Aktionen setzen, um die Inkonsistenzen zu reduzieren. Robotersysteme verfügen bisher jedoch nur bedingt über die Fähigkeit, Standardregeln und Schlussfolgerungen, also quasi ihren Hausverstand, einzusetzen.

Steinbauer hat mit finanzieller Unterstützung durch den Wissenschaftsfonds FWF einen Schlussfolgerungsmechanismus entwickelt, der es Robotern erlaubt, Inkonsistenzen in ihrer Wissensbasis zu erkennen und entsprechende Aktionen abzuleiten. „Wir haben Schlussfolgerungen mit dem sogenannten Situationskalkül in Logik abgebildet. Dieses ermöglicht, die vom Roboter ausgeführten Aktionen und deren Effekte zu beschreiben“, fasste Steinbauer zusammen.

Erste Tests erfolgreich

Dazu haben die Grazer Informatiker laufend automatisch Diagnosen erstellt, indem sie beobachteten, wo das Wissen des Roboters mit der aktuellen Situation nicht mehr zusammenpasst. Stimmt das Wissen mit den Anforderungen der realen Welt nicht mehr überein, wurde ihm „beigebracht“, sich der neuen Situation anzupassen: „Aus dem Wissen, was eine Aktion bewirkt, lernt der Roboter abzuleiten, was er als nächstes tun muss“, so Steinbauer.

Im Test habe sich das Grazer Modell bewährt: Ein Roboter, der mit einfachen Lieferaufgaben betraut war, hat sich auch durch verschobene, entfernte oder falsche Objekte oder Umgebungen nicht mehr irritieren lassen.

Die Informatiker wollen nun das Wissen des Roboters kontinuierlich ausbauen. Dabei stoßen sie jedoch an die Grenzen der technischen Machbarkeit. „Autonome Systeme auszutesten fordert Computern enorme Rechenleistung ab. Wenn die Aktionskette länger wird, wird es sehr komplex und man stößt zurzeit prinzipiell rasch an die Leistungsgrenze der Rechner. Für den Forschungsalltag bedeutet das, dass es Stunden oder Tage dauert, bis ein Roboter ein neues Problem lösen kann.“ Auch im Bereich der Wahrnehmung seien noch viele grundlegende Fragen zu lösen.

science.ORF.at/APA

Mehr zum Thema: