Runder Kopf, große Augen: der soziale Roboter „Pepper“ von SoftBank Robotics
MANDEL NGAN / AFP
MANDEL NGAN / AFP
Experiment

Wenn Roboter Fehler zugeben

In Krankenhäusern, Schulen und Altersheimen kommen soziale Roboter zunehmend zum Einsatz. Jetzt versuchen Wissenschaftler, den Maschinen auch menschliche Eigenschaften beizubringen – zum Beispiel Witze zu machen und Fehler zuzugeben.

Wenn es bloß um die Exekution von Programmen ginge, könnten soziale Roboter so aussehen wie rollende Kaffeeautomaten. Was sie natürlich nicht tun, denn Kopf und Arme müssen schon sein, damit Menschen mit so einer Maschine Kontakt aufnehmen. „Sozial“ heißt in der Robotik letztlich auch: menschenähnlich.

Das gilt auch für die Kommunikation. Als etwa die Spracherkennungssoftware Siri vor ein paar Jahren mit einem Witze-Update versorgt wurde (probieren Sie einmal: „Siri, was ist null geteilt durch null?“), mag das auf die Funktion der App keinen entscheidenden Einfluss gehabt haben – aber auf den Umgang damit sehr wohl.

Wie Menschen im Umgang mit Maschinen Spaß haben können, darüber macht sich auch Margaret Traeger Gedanken. „Wir wissen, dass Roboter das Verhalten von Menschen verändern können, wenn sie mit ihnen direkt interagieren“, sagt die Soziologin vom Yale Institute for Network Science. „Ob und wie sie auch den Umgang von Menschen untereinander verändern können, wussten wir nicht.“

„Sorry, ich habe einen Fehler gemacht"

Um diese Frage zu beantworten, baten Traeger und ihr Team 153 Probandinnen und Probanden ins Labor, teilten sie in Gruppen zu drei Personen auf und wiesen jeder Gruppe einen sozialen Roboter zu. Die vier (drei Menschen plus Roboter) mussten dann am Tabletcomputer gemeinsam ein Problem lösen. Vordergründig ging darum, in 30 Spielrunden ein effizientes Straßennetz zu entwerfen, tatsächlich waren Traeger und ihr Team aber am Umgang der Akteure interessiert.

Sozialer Roboter mit Kopf und Armen in einem Wohnraum
©Chopard Photography – stock.adobe.com

Die Roboter traten in drei Varianten auf: Einmal blieben sie stumm, einmal äußerten sie sich neutral-sachlich (und nannten etwa die Zahl der absolvierten Runden), im dritten Fall verhielten sie sich relativ menschenähnlich, erzählten Späße auf ihre eigenen Kosten und sagten Sätze wie: „Sorry, ich habe einen Fehler gemacht. Es mag für euch schwer zu glauben sein, aber auch Roboter machen Fehler.“

Das machte einen großen Unterschied, wie die Forscher nun im Fachblatt „PNAS“ berichten. Wenn die Roboter ihre eigenen Schwächen thematisierten, redeten die Menschen mehr miteinander, agierten eher auf Augenhöhe – und hatten mehr Spaß. Kurzum: Das Teamwork hatte sich nachweislich verbessert.

Hybride Gesellschaften

„Wir möchten wissen, wie sich die Gesellschaft durch den Einfluss künstlicher Intelligenz verändert,“ sagt Studienautor Nicholas Christakis. „Wenn wir hybride Sozialsysteme von Menschen und Maschinen schaffen, müssen wir auch evaluieren, wie man Roboter programmieren soll, damit sie unser Miteinander nicht gefährden.“

Die Studie der US-Forscher legt nahe, dass das Miteinander der Menschen unter Umständen sogar harmonischer werden könnte. Wobei zu einer hybriden Gesellschaft in letzter Konsequenz auch Haustiere zählen, die sich ebenso an die Gegenwart der Maschinen zu gewöhnen hätten. Auch das wurde schon untersucht. Die Verhaltensforscherin Gabriella Lakatos hat vor ein paar Jahren herausgefunden, dass Hunde auf den Fingerzeig von Robotern reagieren („Hier ist das Futter!“) und auch sonst die eine oder andere soziale Regung gegenüber der Maschine erkennen lassen. Unter einer Voraussetzung: Der Roboter muss sich so ähnlich verhalten wie ein Mensch.