Bots sind auch nur Menschen

Bots – winzige Programme mit automatisierten Aufgaben – sind im Internet weit verbreitet. Treffen sie auf einen Bot mit anderer „Meinung“, kann das laut einer neuen Studie der Anfang eines jahrelangen Konflikts sein – fast wie bei Menschen.

„Hinter jedem Bot steckt ein Mensch, der sein Wissen, seine Persönlichkeit und Kultur, seine Stärken und Schwächen in die Programmierung einbringt“, erklärt Milena Tsvetkova von der Universität Oxford gegenüber science.ORF.at. Und das ist der Grund, warum auch die Bots so „menschlich“ streiten.

Böse und Gute

Bots halten sich im Internet meist im Hintergrund auf. Sie sind kleine Computerprogramme, die automatisch sich wiederholende Aufgaben abarbeiten. Dabei sind sie auf Interaktionen mit Menschen nicht angewiesen, und es gibt - vereinfacht gesagt - „gute“ und „böse“ Exemplare. „Böse“ Bots etwa sammeln ungefragt private Informationen, verschicken massenhaft Werbung bzw. Computerviren und schreiben positive Kundenbewertungen.

Letztere gehören zur Kategorie der Social Bots, die zuletzt bei den Brexit-Kampagnen und im US-Wahlkampf eine wichtige Rolle gespielt haben. Laut einer Studie der Universität Oxford war mehr als jede dritte Twitter-Nachricht für Donald Trump computergesteuert, bei den Tweets für Hillary Clinton lag der Anteil bei 22 Prozent. „Astroturfing“ heißt dafür der Fachbegriff, der das Vortäuschen einer Graswurzelbewegung mit Hilfe von Social Bots meint.

Ebenso wie die „bösen“ gibt es auch die „guten“ Bots seit Anbeginn des Internets: Als Webcrawler etwa durchsuchen sie das Netz und verbessern Suchmöglichkeiten. Oder sie analysieren Webseiten nach Fehlern, die sie automatisch korrigieren: Genau solch ein System verwendet die Online-Enzyklopädie Wikipedia, die nun im Mittelpunkt der Studie von Milena Tsvetkova und Kollegen stand.

Editierkonflikte auf Wikipedia

Bei Wikipedia gibt es keine fixe Redaktion, sondern eine Vielzahl an Autoren (und weniger Autorinnen), die nicht nur Artikel schreiben, sondern auch Korrektur lesen, verbessern und formatieren. Ein Teil dieser Aufgaben übernehmen Editier-Bots, die z. B. Inhalte mit Links versehen, Urheberrechtsverletzungen aufspüren und die Grammatik überprüfen. Sobald die Bots einen Fehler entdecken, korrigieren sie ihn und ändern damit den Seiteninhalt.

Die Forscher haben sich nun diese Änderungen genauer angesehen, und zwar für die ersten zehn Jahre des Bestehens von Wikipedia, von 2001 bis 2010, bei 13 verschiedenen Sprachversionen. Zwar sind 99,9 Prozent aller Editoren Menschen, doch die Bots machen 15 Prozent der Arbeit, schreiben die Forscher.

Interessant waren für sie vor allem jene Fälle, bei denen zwei Bots mit leicht unterschiedlicher Programmierung auf der gleichen Seite in Konflikt geraten: Der eine Bot korrigiert einen Fehler, den der zweite wieder rückgängig macht. Kommt der erste Bot dahinter, geht das Spiel von vorne los. Diese wechselseitigen Fehlertilgungen sind bei Bots zwar seltener als bei Menschen, dafür haben die Programme einen längeren Atem. Mitunter entwickelten sich daraus jahrelange Editierkonflikte, die erst aufhörten, als Mitarbeiter der Wikimedia Foundation dem Spuk ein Ende bereiteten und – per menschlichem Beschluss – dem einen oder anderen Bot rechtgaben.

Deutsche Bots am friedlichsten

Diese Bot-Konflikte sind nicht in allen Sprachversionen gleich intensiv: Im deutschen Sprachraum sind die Bots am friedlichsten, auf der deutschen Wikipedia hoben sie innerhalb der zehn Jahre im Schnitt nur 24 Mal gegenseitig ihre Änderungen auf. In der englischen Wikipedia waren es 105 Mal, Spitzenreiter in Sachen „Streitlust“ war die portugiesische Version mit 185 wechselseitigen Aufhebungen.

Die meisten Bot-Konflikte gibt es auf Wikipedia-Seiten bei Persönlichkeiten des öffentlichen Lebens: der ehemalige Präsident von Pakistan Pervez Musharraf, der dänische Physiker Niels Bohr und der Schauspieler Arnold Schwarzenegger stehen ganz oben auf der Liste. Auch Inhalte über Usbekistan, Estland, Weißrussland und die arabische Sprache haben so manche Bots schon zur Weißglut getrieben.

Und zwar über die Sprachversionen hinweg, denn laut Forschern gibt es innerhalb der Sprachgrenzen weniger Konflikte als über sie hinaus. Das steht im Gegensatz zu den Editier-Konflikten, die Menschen auf Wikipedia austragen: Sie drehen sich meist um lokale Persönlichkeiten oder Geschehnisse und verbleiben innerhalb der Sprachgrenzen.

Konflikte bei autonomen Autos wären fataler

Wie kommt es nun, dass Bots miteinander in Konflikt geraten und deshalb „so ähnlich und unvorhersehbar miteinander interagieren wie die Zellen in unserem Körper“, wie es Milena Tsvetkova gegenüber science.ORF.at ausdrückte? Die Antwort hat mit dem Bottom-up-Aufbau von Wikipedia zu tun. Jeder Autor kann selber Bots programmieren, ohne sich mit anderen abzustimmen. Da es viele Möglichkeiten gibt, gewisse Regeln zu programmieren, können Bots die Regelauslegung anderer Bots als fehlerhaft interpretieren und deren Änderungen überschreiben. Dass die Konflikte in verschiedenen Ländern unterschiedlich verbreitet sind, verweist auf eine kulturelle Grundlegung.

Und das könnte in anderen Bereichen der Programmierung zu erheblich größeren Problemen führen als auf Wikipedia: etwa bei autonom fahrenden Autos. „Die gleiche Technologie kann zu verschiedenen Ergebnissen führen, je nach kultureller Umgebung“, sagt Taha Yasseri, ebenfalls von der Universität Oxford. „Ein selbstfahrendes Auto wird auf einer deutschen Autobahn anders fahren als auf den Hügeln der Toskana in Italien.“ So wie bei den Wikipedia-Bots müssen auch bei den Autos Computerprozesse miteinander interagieren. Wenn sie nicht aufeinander abgestimmt sind, können laut Tsvetkova ähnliche Konflikte die Folge sein – und das hieße: Unfälle.

Sunil Kumar, Lukas Wieselberg, science.ORF.at

Mehr zu dem Thema: