Wie virale Botschaften entstehen

Für manche Posts in sozialen Netzwerken scheint sich kaum jemand zu interessieren, andere gehen förmlich durch die Decke. Warum? Eine Analyse zeigt: Bei politischen Botschaften sorgen moralisch-emotionale Vokabel für Aufmerksamkeit - etwa das Wort ‚Gier‘.

Die Wissenschaftler um William Brady von der New York University konzentrierten sich in ihrer Untersuchung auf drei Themen, die 2015 in sozialen Netzwerken in den USA besonders kontrovers diskutiert wurden: Waffenkontrolle, Klimawandel und gleichgeschlechtliche Ehen.

Bisherige Studien hatten gezeigt, dass Gefühle moralische Urteile verstärken können - und außerdem mit einem Prozess zusammenhängen, den Psychologen „soziale Ansteckung“ nennen.

Twitter: Katalytische Vokabel

Daher suchten Brady und Co. in mehr als 500.000 Tweets nach ebendiesen Bedeutungen: nach Wörtern, die entweder dem Bereich der Moral („Pflicht“) oder der Emotion („Angst“) entstammen; sowie nach solchen, die beide Anteile enthalten, wie zum Beispiel „Gier“, „Hass“ oder „Friede“.

Ergebnis: Es waren vor allem die moralisch-emotionalen Mischwörter, die normale Tweets von viralen Botschaften unterscheiden. Ein Wort aus dieser Kategorie erhöht laut Forschern die Wahrscheinlichkeit für einen Retweet (also die Weiterleitung der Botschaft) um 20 Prozent.

„Die Teilnehmer in den sozialen Netzwerken könnten ihren Einfluss verstärken, indem sie sich solcher Wörter bedienen. Das gilt auch für die politische Elite“, sagt Brady.

„Ansteckung“ fördert Blasenbildung

Dieser Effekt greift allerdings nur zwischen Nutzern bzw. Lesern mit ähnlicher Weltanschauung. Was wiederum erklären könnte, warum in sozialen Netzwerken ideologische Blasen entstehen - und etwa die Standpunkte zwischen Liberalen und Konservativen in den USA immer weiter auseinanderdriften.

Twitter-App auf dem Bildschirm eines Smartphones

DAMIEN MEYER / AFP

Die „richtige“ Wortwahl macht Tweets zu viralen Botschaften.

Ob sich Tweets mit positiven oder mit negativen Aussagen stärker verbreiten, ist laut Angaben der Studienautoren noch offen. Fazit: Die „moralische Ansteckung“, wie sie die Forscher nennen, funktioniert am besten mit Vokabular, das Emotion und Moral gleichermaßen bedient. Und wenn sie funktioniert, dann führt sie zu inhaltlicher Polarisierung.

Fake News: In der Flut versteckt

Forscher um Diego Oliveira von der Indiana University in Bloomington haben sich unterdessen mit der Frage befasst, warum sich Fake News in sozialen Netzwerken stark verbreiten. Dies sei vor allem bei Nutzern der Fall, die mit Informationen überlastet seien und ihnen deshalb nur einen begrenzten Teil ihrer Aufmerksamkeit widmen könnten, berichtet das Team im Fachjournal „Nature Human Behaviour“.

Grundsätzlich bevorzugen Nutzer sozialer Netzwerke laut Studie qualitativ hochwertige Informationen. Das setzt allerdings voraus, dass sie die Qualität von Posts beurteilen können. Doch genau diese Beurteilung wird mit dem Anschwellen der Informationsflut immer schwieriger.

Oliveira und seine Kollegen machen sich in ihrem Artikel auch Gedanken darüber, wie man die Verbreitung von Fake News künftig besser eindämmen könnte.

Gegenmittel: Mehr Zeit und Aufmerksamkeit

Eine Möglichkeit sei etwa, die Zahl der Posts in sozialen Netzwerken wie Facebook oder Twitter zu reduzieren. Dafür müsse man vor allem Bots einschränken, die automatisch Posts erzeugen. So könnten die Nutzer einzelnen Einträgen mehr Zeit und Aufmerksamkeit widmen - womit sich die Qualität von Informationen in sozialen Netzwerken verbessern würde. Theoretisch.

Praktisch ist das jedoch kaum umzusetzen, sagt Christian Grimme vom Institut für Wirtschaftsinformatik der Universität Münster. Er hält wenig davon, die Informationsflut künstlich zu begrenzen.

„Dies würde im Zweifel zu großen Akzeptanzproblemen bei Nutzern sozialer Medien führen, das Geschäftsmodell für Anbieter zerstören und zugleich in vielen Fällen eine sinnvolle Nutzung von sozialen Medien erschweren oder unmöglich machen.“ Ein Verbot von Social Bots sei zudem rechtlich - und nicht zuletzt technisch schwierig.

science.ORF.at/dpa

Mehr zu diesem Thema: