Jemand tippt in einen Computer
tippapatt – stock.adobe.com
tippapatt – stock.adobe.com
Künstliche Intelligenz

„Algorithmen sind wie Drogen“

Die Algorithmen von sozialen Netzwerken bevorzugen extreme Positionen. Sie verändern unser Urteilsvermögen wie Drogen und polarisieren die Gesellschaft, sagt der renommierte Künstliche-Intelligenz-Forscher Stuart Russell im ORF-Interview. Er untersucht die Algorithmen empirisch – und empfiehlt dringend, sie zu regulieren.

Streaming-, Shoppingplattformen, soziale Netzwerke: Ohne Empfehlungsalgorithmen, die auf Basis unseres Verhaltens in der Vergangenheit Neues vorschlagen, ist das Internet heute nicht mehr denkbar. Und Empfehlungsalgorithmen sind ohne Methoden künstlicher Intelligenz (KI), maschinelles Lernen, nicht denkbar. Diese Algorithmen hätten mehr Kontrolle über die menschliche Wahrnehmung und das Denken als jeder Diktator es je hatte, glaubt der Informatiker Stuart Russell, einer der bekanntesten KI-Forscher weltweit. Sie kontrollieren, was Milliarden von Menschen jeden Tag stundenlang lesen, sehen und lernen. Aber sie sind derzeit völlig unreguliert. Und wir wissen noch sehr wenig darüber, welche Auswirkungen sie auf die Menschen haben.

Stuart Russell beim Good Global Summit in Genf 2017
ITU/R.Farrell

Stuart Russell wurde schon Hohepriester der KI-Forschung genannt. Der Brite forscht und lehrt seit den 80er Jahren an der University of California in Berkeley. Er ist Autor mehrer Bücher über künstliche Intelligenz. Gemeinsam mit Peter Norvig schrieb er das Buch „Artificial Intelligence: A Modern Approach“. Es gehört zu den meistzitierten Büchern in der Informatik.

Dass Firmen wie Meta und Google durch riesige Datensammlungen und ausgeklügelte Algorithmen sehr viel Macht über uns haben, ist mittlerweile eine Binsenweisheit. Sie aber gehen noch einen Schritt weiter. Sie sagen, dass uns solche Systeme manipulieren und polarisieren, weil sie so designt wurden.

Stuart Russell: Ich sage nicht, dass Unternehmen bewusst Systeme bauen, die uns radikalisieren. Das ist eher ein Nebeneffekt des Designs. Ihr eigentliches Ziel besteht darin zu maximieren: unser Engagement, also die Zeit, die wir auf Plattformen verbringen, die Anzahl der Clicks auf Artikel oder Anzeigen. Damit machen die Plattformen Geld. Und dieses Ziel hat allerhöchste Priorität. Die Algorithmen haben keine Vorstellung, dass wir Nutzer menschliche Wesen sind, die ein Gehirn haben und sich damit Meinungen bilden. Sie sind einfach nur ein Ergebnis von Empfehlungen und Klicks. Haben Sie auf eine Empfehlung reagiert, lernen Algorithmen daraus und leiten ab, was sie Ihnen als Nächstes empfehlen. Auf lange Sicht werden Sie ein maximales Engagement mit dem System haben. Aber das System lernt Sie nicht nur besser kennen, es manipuliert auch. Es versucht, Sie berechenbarer zu machen, um die Trefferquote zu verbessern, und das geschieht am effizientesten, indem Sie das System radikalisiert.

Das klingt schon ordentlich nach Science Fiction. Bitte erklären Sie das!

Russell: Algorithmen sortieren uns den ganzen Tag nach vielen verschiedenen Datenpunkten. Sie wollen uns so gut kennenlernen wie möglich, um uns die besten Ergebnisse zu liefern, so würden es Techfirmen ausdrücken. Sie stecken uns also in Schubladen, aber das ist noch nicht alles. Sie versuchen uns an die jeweilige extreme Ecke einer Schublade zu bringen. Das ist bisher lediglich eine Hypothese, es gibt dazu noch zu wenig Forschung – allerdings viele anekdotische Beispiele. Jemand, der in seinen Ansichten extremer ist, das kann ein Neofaschist sein oder eine Ökoterroristin, ist in seinen Reaktionen auf Informationen vorhersehbarer. Das ist die zentrale These, die es zu überprüfen gilt.

Und haben Sie schon Anhaltspunkte?

Russell: Wir konnten das schon in Simulationen zeigen. Wir haben Vereinbarungen mit einigen Plattformen ausgehandelt, um Zugang zu internen Daten zu bekommen, damit wir Experimente durchführen können, um unsere Hypothese zu überprüfen und Techniken zur erarbeiten, die diese Manipulationseffekte beschränken.

Sie leben und unterrichten in Berkeley, also fast im Silicon Valley. Ist diese Manipulationsthese dort bereits Allgemeinwissen für Menschen, die in Techfirmen arbeiten oder es anstreben?

Russell: Wenn ich das in Präsentationen erkläre, sind die meisten Leute ziemlich überrascht. Sie sind mit der Idee Filterblase vertraut – auch ein angenommener Effekt von Algorithmen. Je mehr man jemandem Infos schickt, für die er sich bereits interessiert, umso enger wird sein Fokus. Aber wovon ich spreche, ist viel ernster als die Filterblase. Es geht darum, Menschen zu verändern, politisch und in Fragen ihrer Einstellungen in eine Richtung zu bewegen. Der Algorithmus will nur, dass Sie berechenbarer werden.

Was lässt sich tun?

Russell: Ich möchte vorher noch einen Punkt ansprechen, der mir wichtig ist. Wir müssen uns ausführlicher mit unserem Begriff von Manipulation auseinandersetzen. Manipulation hat ja einen eindeutig negativen Beigeschmack. Aber es gibt viele Arten der Manipulation, die wir als positiv ansehen, einschließlich der Bildung. Wenn ich einen Roman lese und er mich so in seinen Bann zieht, dass ich ihn nicht weglegen kann, manipuliert er mich dann auch? Sollte er verboten sein, weil er zu viel Macht über mich hat? Das sind schwierige Fragen, und es kommt noch etwas Wichtiges hinzu. Jemand, der erfolgreich manipuliert wurde, merkt das selten. Niemand sagt: Oh mein Gott, ich bin ein Neofaschist. Ich werde Facebook verklagen, weil es mich zu einem Neofaschisten gemacht hat, richtig? Es ist eines der schwierigsten Probleme in der Philosophie und Politik: Prozesse zu verstehen, die die Ansichten, Einstellungen und Wünsche der Menschen verändern.

Ist es nicht illusorisch, Manipulation eindeutig feststellen zu wollen? Wenn ich sage, du wurdest manipuliert, du willst das gar nicht selber, stelle ich mich ja über dich. Und warum sollte ich besser wissen, dass du manipuliert wurdest?

Russell: Ich denke, es gibt Möglichkeiten, das objektiv festzustellen. Wenn zum Beispiel eine Information unwahr ist. Eine der häufigsten Formen der Manipulation ist die absichtliche Desinformation. Die Produktion von „Fake News“ ist inzwischen weltweit zu einer großen Industrie geworden. Aber es gibt auch andere Arten der Manipulation, wie zum Beispiel die Aufforderung, patriotischer zu sein. Patriotismus kann ja etwas Schönes sein, aber oft führt er zu Krieg, Rassismus und anderen Übeln.

Wie lässt sich regulierend eingreifen?

Russell: Unternehmen arbeiten heute mit bestimmten Arten von KI, wir nennen es Verstärkungslernen – ein Verstärkungslernalgorithmus, durch den das System selbstständig lernt, ohne dass suboptimale Aktionen explizit korrigiert werden. Das System findet heraus, wie es am effizientesten an ein Ziel gerät, etwa Click-Zahlen zu maximieren. Wir könnten damit beginnen zu verbieten, dass solche Systeme direkt mit Menschen interagieren. Und wir können Algorithmen durchaus mit Drogen vergleichen. Ich meine nicht gleichsetzen, aber sie können so wie Drogen unser Urteilsvermögen verändern. Niemand, der drogenabhängig wurde, hat es darauf angelegt, als er das erste Mal Drogen konsumierte. Drogen verändern die Vorlieben und Verhaltensweisen von Menschen. Und aus diesem Grund werden sie reguliert, weil sie schädliche Auswirkungen haben. Im Falle von Algorithmen ist die schädliche Wirkung für den Einzelnen nicht eindeutig feststellbar, sie liegen auf gesellschaftlicher Ebene. Polarisierung ist keine Eigenschaft eines Individuums, sie ist die einer Gesellschaft. Ich denke, dass Regierungen durchaus ein Interesse an der Regulierung haben müssen.