Runder Kopf, große Augen: der soziale Roboter „Pepper“ von SoftBank Robotics
MANDEL NGAN / AFP
MANDEL NGAN / AFP
Intelligenz

Wenn Computer die Welt wie ein Baby sehen

Trotz aller Fortschritte scheitert künstliche Intelligenz mitunter an einfachen, alltäglichen Aufgaben. Es fehlt der Hausverstand. Um das zu ändern, hat ein Forschungsteam nun versucht, dem Computer beizubringen, die Welt wie ein kleines Kind zu erleben, das bereits grundlegende physikalische Konzepte versteht.

Der kindliche Geist als Modell für intelligente Maschinen – schon 1950 formulierte der berühmte Mathematiker Alan Turing diese Uridee der künstlichen Intelligenz (KI): „Anstatt ein Programm zu entwerfen, das das Denken von Erwachsenen simuliert, sollte man eher den Geist eines Kindes simulieren.“ (Originalzitat in „Mind“, 1950: „Instead of trying to produce a programme to simulate the adult mind, why not rather try to produce one which simulates the child’s?“).

Für ihn war der kindliche Geist gewissermaßen ein unbeschriebenes Blatt. Nach und nach sollte das Programm dann dazulernen – und am Ende würde echte – dem Menschen ähnliche – Intelligenz entstehen. Turing war überzeugt, dass Computer irgendwann tatsächlich denken werden können. Noch ist es jedenfalls nicht so weit. Dabei gibt es heute selbstlernende Programme zuhauf. Sie sind verantwortlich für viele Erfolge der KI-Forschung der jüngeren Vergangenheit.

Mit Hilfe von Deep Learning, einer speziellen Form des maschinellen Lernens, bei dem sich Computer anhand großer Datenmengen neues Wissen und Fertigkeiten aneignen, sind bereits erstaunliche Dinge geglückt, etwa in der Gesichter- und Spracherkennung. In einigen Spielen haben die KI-Programme den Menschen sogar längst besiegt, etwa im Schach und dem asiatischen Strategiespiel Go.

Fehlender Hausverstand

Dennoch – trotz aller Fortschritte der letzten Jahre – fehle noch immer etwas Wesentliches, schreiben die Forscher um Luis S. Piloto von der KI-Schmiede DeepMind, einer Tochter der Google Holding Alphabet, in „Nature Human Behaviour“: der Hausverstand. Beim Alltagswissen gebe es noch sehr große Defizite in der KI, etwa beim Verständnis grundlegender physikalischer Zusammenhänge.

Bei dieser Alltagsintelligenz sind sogar die vermeintlich „unbeschriebenen“ Kinder den Maschinen überlegen. Schon im Alter von wenigen Monaten sind sie erstaunlich schlau, wenn es darum geht, die Welt um sie herum zu begreifen, wie zum Beispiel Babys, die wieder und wieder den Löffel und andere Dinge fallen lassen. Das geschieht nicht (nur), um Mütter, Väter und andere Personen zu ärgern, es ist in gewisser Weise auch ein Test physikalischer Gesetze.

Diese frühen Ideen zur materiellen Welt – das Wissen, wie sich Objekte verhalten und was physikalisch möglich ist – nennt man in der Psychologie auch intuitive Physik. Dieses intuitive Verständnis gilt als ein wichtiger Teil unseres alltäglichen Hausverstands. Es zählt außerdem zu dem schon bei kleinen Kindern angelegten, vielleicht sogar angeborenen menschlichen Kernwissen. Denn schon mit wenigen Monaten reagieren Babys überrascht, wenn grundlegende physikalische Gesetze verletzt werden, wenn Objekte sich anders verhalten als erwartet, z. B. wenn sie einfach verschwinden. Gemessen wird die Überraschung bei Experimenten übrigens mit der Blickdauer: Je länger Babys schauen, umso ungewöhnlicher ist ein Vorgang für sie.

Physikalische Grundkonzepte

Die Entwicklungspsychologie war auch die Inspirationsquelle für das nun von für Piloto und Co. entwickelte KI-Programm, das sie in ihrer soeben erschienenen Studie vorstellen. Mit Hilfe dieses Deep-Learning-Systems namens PLATO („Physics Learning through Auto-encoding and Tracking Objects“) sollte der Computer einige dieser – bereits für sehr junge Menschen so selbstverständlichen – physikalischen Grundkonzepte erlernen: Objekte sind solide, kontinuierlich existierende Einheiten; manche Eigenschaften von Objekten sind unveränderlich, z. B. die Form; und bewegte Objekte verhalten sich nach den Gesetzen der direktionalen Trägheit. Für das selbstlernende System habe man die psychologische These übernommen, wonach Objekte und ihre Eigenschaften für das Verständnis der uns umgebende physikalische Welt zentral sind, erklärt Piloto in einem Press Briefing zur Studie.

Computer ist „überrascht“

Kurze animierte Videos mit einfachen Szenen waren die Trainingsgrundlage für PLATO: Bälle, die auf den Boden fallen, Bälle, die hinter anderen Objekten verschwinden und wieder auftauchen, Bälle, die aneinander abprallen, etc. Nach dem Training folgten die Tests mit neuen Szenen und Objekten: Die Videos enthielten nun auch einige physikalisch unmögliche Abläufe.

Laut den Studienautoren reagierte das System tatsächlich wie ein kleines Kind, d. h., mit „Überraschung“ in Form eines Widerspruchs zwischen der präsentierten Szene und dem, was der Computer vorhergesagt hatte („Violation of Expectation“). Schon nach 28 Stunden Videotraining war ein – wenn auch sehr rudimentäres – physikalisches Grundverständnis entstanden. Von der echten physikalischen Welt sei man dabei aber noch weit entfernt, betont Piloto, beispielsweise fehlen Flüssigkeiten wie Wasser völlig im derzeitigen Setting. In Zukunft wolle man weitere physikalische Prinzipien integrieren.

Für Robotik

Anwendung hatten die Forscher keine konkrete im Kopf, aber vieles sei denkbar, da die physikalische bzw. echte Welt ja allgegenwärtig sei; ein allgemeineres Verständnis derselben könnte also oft helfen, z. B. in der Robotik. Außerdem sei dieser objektzentrierte Ansatz sehr viel effizienter als andere selbstlernende Systeme, da viel weniger Eingangsdaten benötigt werden.

Tatsächlich seien die Grenzen des für die heutige KI Machbaren bei Alltagsproblemen schnell erreicht und etwa die physikalische Welt für viele Roboter noch immer schwierig zu begreifen, wie der nicht an der Studie beteiligte Informatiker Diedrich Wolter von der Universität Bamberg gegenüber dem deutschen Science Media Center erklärt: „Beispielsweise legen Menschen Objekte intuitiv auf schrägen Oberflächen ab, ganz ohne Wissen um physikalische Parameter wie Reibung. Aktuelle Roboter benötigen hingegen ein exaktes Modell ihrer Umgebung, welches in den seltensten Fällen verfügbar ist.“

Natürliche Intelligenz als Vorbild

Auch Martin Schrimpf vom Massachusetts Institute of Technology betont, dass heutige KI-Modelle Menschen noch in vielerlei Weise unterlegen sind: „Logische Argumentation, Lernen aus wenigen Beispielen, Kombinatorik, robustes Verhalten trotz Veränderungen im sensorischen Input, Generalisierung zu neuen Konzepten – es gibt viele weitere Beispiele.“ Aber mittlerweile werde die Liste laufend kürzer. Und Anleihen bei der menschlichen Entwicklungspsychologie, wie das bei PLATO der Fall ist, könnten dabei helfen, der natürlichen Intelligenz noch einen Schritt näher zu kommen.

Dass der Ansatz von Piloto und Co. allerdings sehr vereinfacht und davon, wie ein Kleinkind die Welt erlebt, meilenweit entfernt ist, unterstreicht Stefanie Höhl von der Uni Wien: „Babys lernen nicht durch reine, passive Beobachtung wie das Modell in der Studie. Sie werden nicht mit visuellem Input ‚gefüttert‘. Sie sind aktive Lernende, die sich, geleitet durch ihre intrinsische Neugier, selbst aussuchen, worauf sie ihre Aufmerksamkeit lenken.“ Dazu kommen soziale Einflüsse, und sobald sie mobil werden, erkunden sie die Welt aktiv mit allen Sinnen. All das wird eine noch so gute Simulation des kindlichen Geists – wie Turing sie erträumt hat – wohl auch weiterhin nicht zustande bringen.