Oberfläche eines Smartphones mit Logos von Instagram, Twitter, Facebook (Soziale Medien)
AFP/DENIS CHARLET
AFP/DENIS CHARLET
US-Wahl 2020

Soziale Netzwerke spielten kaum eine Rolle

Die Algorithmen von Facebook und Instagram beeinflussen die Inhalte, die Userinnen und User auf den Plattformen sehen, nicht aber ihre politische Einstellung im „realen Leben“ – das galt laut neuen Analysen zumindest für die US-Präsidentschaftswahl 2020. Ob sich die Ergebnisse verallgemeinern lassen, ist unklar.

Große Social Media-Plattformen wie Facebook, Instagram und Co. stehen immer wieder unter Verdacht, mit ihren komplexen Newsfeed-Algorithmen Filterblasen zu erzeugen, die den Userinnen und Usern immer mehr Beiträge zu bestimmten Themen anzeigen und andere Inhalte gezielt verbergen. Fachleute kritisieren unter anderem, dass sich so Falschinformationen schnell verbreiten, die zur Polarisierung der Gesellschaft beitragen könnten.

Vor allem im politischen Kontext, etwa vor Präsidentschaftswahlen, sehen Expertinnen und Experten darin potenzielle Probleme. Die Filterblasen-Hypothese ist zwar mittlerweile umstritten, die genaue Wirkung der Newsfeed-Algorithmen auf die Nutzerinnen und Nutzer ist aber nicht gänzlich geklärt.

Umfangreiches Forschungsprojekt

Ob die Social Media-Plattformen tatsächlich zur Polarisierung der Bevölkerung beitragen, haben internationale Forschungsteams nun anhand der US-Präsidentschaftswahl 2020 genau untersucht. Laut eigenen Angaben handelte es sich um das bisher umfassendste Projekt dieser Art. Aus der Kooperation von akademischen Fachleuten mit Forscherinnen und Forschern von Meta, dem Unternehmen hinter Facebook und Instagram, entstanden vier wissenschaftliche Publikationen in den aktuellen Ausgaben der Fachjournale „Science“ und „Nature“. Auch der Datenwissenschaftler Drew Dimmery vom Forschungsverbund Data Science der Universität Wien war an dem Projekt beteiligt.

Dreimonatige Datenerhebung

In einer der Studien ging es um die generelle Wirkung der Algorithmen von Facebook und Instagram, die bestimmen, welche Beiträge in welcher Reihenfolge im Newsfeed bzw. der Startseite aufscheinen. Die Forscherinnen und Forscher wählten knapp 30.000 Facebook- und rund 26.000 Instagram-User aus, die in den USA beheimatet waren, und teilten sie in zwei Gruppen auf. Eine Gruppe bekam die Nachrichten auf ihrem Newsfeed wie gehabt vom Algorithmus sortiert, die andere hingegen chronologisch und ohne zusätzliche Sortierkriterien.

Nachdem die Probandinnen und Probanden ihr Einverständnis gegeben hatten, sammelte das Forschungsteam drei Monaten lang Daten über ihr Verhalten auf den Plattformen. Außerdem gab es fünf Umfragen, in denen sie zu ihrer politischen Einstellung und ihrem Verhalten abseits der sozialen Medien befragt wurden.

Deutliche Veränderungen online

Es zeigte sich, dass der Algorithmus die auf den Plattformen gesehenen Inhalte stark beeinflusste. Ohne ihn machten Beiträge von Freunden, Gruppen und von Seiten je ein Drittel der Nachrichten aus, im algorithmisch sortierten Newsfeed war hingegen mehr als die Hälfte der Beiträge von Freunden. Die Gesamtmenge an politischen, und laut den Forscherinnen und Forschern oft auch nicht vertrauenswürdigen Inhalten stieg ohne den Algorithmus an.

Auch das Online-Verhalten der Probandinnen und Probanden mit dem chronologischen Feed änderte sich. Sie verbrachten durchschnittlich weniger Zeit auf Facebook, zum Teil bis zu 20 Prozent, und gaben weniger als halb so vielen Beiträgen ein „Like“ – was nicht im Sinne des Geschäftsmodells ist.

Keine Wirkung offline

Was auch die beteiligten Forscherinnen und Forscher laut eigenen Angaben überraschte: Offline, in der realen Welt, zeigten sich keine signifikanten Veränderungen bei den Testpersonen. Keine der beiden Gruppen war mehr – oder weniger – politisch polarisiert als die andere und die Testpersonen waren auch ungefähr gleich gut über aktuelle politische Ereignisse informiert.

Auch bei der politischen Teilhabe und der grundsätzlichen Einstellung der Probandinnen und Probanden zeigte sich das gleiche Bild. „Die gängige Ansicht, dass Algorithmen große Veränderungen in den politischen Ansichten der Menschen herbeiführen, scheinen anhand unserer Studie überbewertet“, sagte Dimmery in einem Gespräch mit der APA.

Daten zeichnen klares Bild

In einer zweiten Studie stand die Entfernung mehrmals geteilter Inhalte, sogenannter „Reshares“, aus dem Newsfeed im Mittelpunkt. Dadurch verringerte sich die Menge an Inhalten aus nicht vertrauenswürdigen Quellen und an Beiträgen zu politischen Themen erheblich. Wie auch in der anderen Studie klickten und reagierten die betroffenen Nutzerinnen und Nutzer weniger auf die gesehenen Inhalte. Veränderungen in den politischen Einstellungen und Verhaltensweisen abseits der Plattformen blieben ebenfalls aus.

Auch die Ergebnisse der weiteren Experimente und Studien legen nahe, dass die Social Media-Inhalte keinen nennenswerten Effekt auf das tatsächliche Verhalten der Userinnen und User außerhalb der Plattformen hatten.

“Beispiel für künftige Untersuchungen“

„Über die unmittelbaren Ergebnisse der Studien hinaus liefert die Zusammenarbeit als Ganzes ein wissenschaftliches Beispiel dafür, wie man in künftigen Untersuchungen an die Frage herangehen kann, wie sich die Technologie auf die Gesellschaft auswirkt“, wird Dimmery in einer Aussendung der Universität Wien zitiert.

Klar ist, dass derart umfangreiche Projekte ohne die Kooperation mit großen Unternehmen wie Meta aktuell nicht möglich sind. Um dennoch unabhängig von den Geschäftsinteressen des Konzerns forschen zu können, wurden vorab klare Vereinbarungen getroffen. Die Teams aus akademischen Fachleuten bestimmten die spezifischen Forschungsfragen und Studiendesigns und erhielten Zugriff auf bestimmte Meta-Daten.

Meta konnte die Designs nur aus rechtlichen, datenschutzrechtlichen oder logistischen Gründen ablehnen. Das Unternehmen konnte die Ergebnisse daher nicht einschränken oder zensieren. Außerdem hatten die akademischen Forscherinnen und Forscher das letzte Wort bei Schreib- und Forschungsentscheidungen.

“Keine Generalisierung möglich“

Wie sehr die Untersuchungsergebnisse aber auch außerhalb der US-Präsidentschaftswahl gelten, muss laut Fachleuten erst noch geklärt werden. Bisher seien die Erkenntnisse eher nur für die Vereinigten Staaten relevant, gibt etwa der Politikwissenschaftler Andreas Jungherr von der Otto-Friedrich-Universität Bamberg zu bedenken.

Er sieht auch die Kooperation der akademischen Fachleute mit den Forscherinnen und Forschern von Meta zum Teil kritisch. In sehr wichtige Datensätze, etwa zur genauen Funktionsweise der Algorithmen, hatten die beteiligten Forschungsteams keinen Einblick. Außerdem kritisiert der Politikwissenschaftler, dass sich die Ergebnisse der Studien schon nur aufgrund der Beteiligung von Meta wahrscheinlich stärker verbreiten als vergleichbar bedeutende Erkenntnisse anderer Forschungsteams.

„Die hier vorliegende Kooperation macht sowohl die Potenziale als auch die Risiken von Industrie-Wissenschaftskooperationen deutlich. Hier gilt es für die Wissenschaft, zeitnah Regeln für die Zusammenarbeit mit der Tech-Industrie zu entwickeln. Potenziale der Zusammenarbeit sollten genutzt werden. Gleichzeitig gilt es aber zu verhindern, dass Firmen Forschungsagenden prägen und kooperierende Wissenschaftlerinnen und Wissenschaftler als ausgelagerten Arm ihrer PR-Abteilung nutzen können“, so Jungherr.