Auch Computer haben Vorurteile

Frauen sind für die Familie zuständig, Männer für den Beruf - so sieht das Weltbild von Sprachprogrammen aus. Forscher weisen nach: Wenn Künstliche Intelligenz Sprache lernt, dann übernimmt sie automatisch kulturelle Vorurteile.

Der polnische EU-Abgeordnete Janusz Korwin-Mikke, schon bisher durch verhaltensauffällige Beiträge in der politischen Debatte bekannt, sorgte jüngst wieder einmal für Aufregung im Europaparlament. Er sagte: „Natürlich müssen Frauen weniger als Männer verdienen, weil sie schwächer, kleiner und weniger intelligent sind.“ Die Strafe folgte auf dem Fuße. Korwin-Mikke verlor für 30 Tage seine Diäten, wurde von Parlamentssitzungen ausgeschlossen und darf nun das EU-Parlament ein Jahr lang nicht repräsentieren.

Latente Vorurteile

Wenn Sexismus - wie im Fall von Korwin-Mikke - in so kruder Form daherkommt, ist er leicht zu erkennen. Vorurteile können allerdings deutlich subtiler auftreten: in Form sprachlicher Schieflagen, vor denen auch liberal gesinnte Menschen nicht gefeit sind. Solche Muster versuchen Psychologen mit Hilfe des „Impliziten Assoziationstests“ freizulegen. Der Test zeigt durch Vermessung von Reaktionszeiten, wie stark die Bindung von Begriffspaaren ist. Blumen und Musikinstrumente verbinden sich beispielsweise eher mit angenehmen Begriffen, Insekten und Waffen eher mit unangenehmen. Soweit, so unverfänglich.

Wie der amerikanische Psychologe Anthony Greenwald nachgewiesen hat, kann man mit dieser Methode auch Stereotypen aufdecken: Weibliche Namen sind im Sprachgebrauch nach wie vor stärker an die Familie als an den Beruf gebunden. Bei männlichen Namen ist es umgekehrt. Greenwalds Diagnose: Verborgene Vorurteile besitzen viele Menschen. Und zwar oft, ohne sich dessen bewusst zu sein. Das hat Folgen: Die Sprache ist das Vehikel, mit der die Diskriminierung in den Alltag einsickert.

„Natürlich würden wir diese Wirkungen auf das Verhalten gerne unterbinden“, sagte Greenwald 2009 in einem Interview mit dem Portal „Science Watch“. „Aber wir haben noch keine Wunderwaffe gefunden.“

„Gebrauch erzeugt Bedeutung“

Der jüngste Beitrag in diesem Feld kommt überraschenderweise nicht aus der Psychologie, sondern aus der Computerwissenschaft. Die Künstliche-Intelligenz-Forscherin Joanna Bryson hat ein Programm entwickelt, das ebenfalls Schieflagen in der Sprache freilegen kann.

Bryson hat das Programm über eine 2,2 Millionen Wörter umfassende Textsammlung aus dem Internet laufen lassen und kam mit ihrer statistischen Methode zu den gleichen Ergebnissen wie die Psychologen mit ihren Assoziationstests: Blumen haben eine angenehme Tönung und Waffen eine unangenehme; weibliche Namen haben eher mit der Familie zu tun und männliche Namen mit dem Beruf.

„Die Art und Weise, wie wir Wörter verwenden, bestimmt ihre Bedeutung“, sagt Bryson gegenüber science.ORF.at. „Vorurteile sind oft latent - sie sitzen tief in unserer Kultur und unserer Sprache.“

Test mit „Google Translate“

Wie die Computerwissenschaftlerin im Fachblatt „Science“ schreibt, pflanzen sich diese Muster bis in die Welt der Künstlichen Intelligenz fort. Wenn Programme Sprache anhand von Texten lernen, dann eignen sie sich automatisch die darin enthaltenen Stereotypen an.

Ein Beispiel dafür ist etwa das Übersetzungsprogramm „Google Translate“. Wer dort in die Textmaske den türkischen Satz "O bir doktor, o bir hemsire” eingibt - die Fürwörter sind hier noch geschlechtsneutral -, erhält in der englischen Übersetzung: “He is a doctor, she is a nurse”. Das Gleiche passiert laut Bryson etwa bei Übersetzungen aus dem Finnischen, Estnischen, Ungarischen und Persischen.

„Ich würde Google Translate keinen besonderen Vorwurf machen“, sagt Bryson. „Das gilt für alle Sprachprogramme, die mehr können müssen, als vorgefertigte Sätze abzurufen.“

Brysons Fachkollegen sind von dem Ergebnis nicht sonderlich überrascht. "Computerlinguistische Algorithmen werden Vorurteile solange reproduzieren, wie sie von Menschen ins Internet gestellt werden. Wie man in den Wald hineinruft, so schallt es auch heraus”, sagt Michael Strube vom Heidelberg Institute for Theoretical Studies.

„Bräuchten Pädagogik der KI“

Beispiele dafür ließen sich auch aus anderen Bereichen der Künstlichen Intelligenz finden. Die automatische Gesichtserkennung von „Google Photos“ kategorisierte dunkelhäutige Menschen vor ein paar Jahren als „Gorillas“. Und Microsoft musste letztes Jahr den selbständig lernenden Chatbot „Tay“ wieder vom Netz nehmen, nachdem ihm Trolle rabiat-rassistische Sprüche beigebracht hatten.

„Wenn Künstliche-Intelligenz-Systeme mit einseitigen Daten trainiert werden, ist es nicht verwunderlich, dass sie eine einseitige Sicht auf die Welt lernen“, sagt Christian Bauckhage vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme.

Seine Empfehlung: Softwareentwickler müssten sich ihrer Verantwortung bewusst sein, wenn sie intelligente Systeme erschaffen. "Das ist eigentlich das Gleiche wie in der Kindererziehung. Vielleicht bräuchten wir so etwas wie eine Pädagogik der Künstlichen Intelligenz.“

Mehr als Schall und Rauch

Dass die Bedeutungsnuancen von Wörtern mitunter sehr handfeste Auswirkungen auf das Leben und den Alltag haben, weiß man spätestens seit einem Versuch der Ökonomin Marianne Bertrand. Sie verschickte 5.000 identische Bewerbungen an Firmen und variierte dabei nur die Namen der Kandidaten.

Resultat: Bewerber mit europäischen Namen waren im Vergleich zu Afroamerikanern klar im Vorteil. Sie erhielten 50 Prozent mehr Einladungen zum Bewerbungsgespräch. Auch dieses Ergebnis konnte Bryson mit ihrem Programm reproduzieren. Sie zeigt in ihrer Studie: „Weiße“ Namen besitzen eine angenehmere Semantik als „schwarze“. Der Gebrauch macht den Unterschied.

Robert Czepel, science.ORF.at

Mehr zu diesem Thema: