Oberfläche eines Smartphones mit Logos von Instagram, Twitter, Facebook (Soziale Medien)
AFP/DENIS CHARLET
AFP/DENIS CHARLET
Digitaler Raum

Indirekten Beleidigungen auf der Spur

Hate Speech im Internet und auf Social Media ist allgegenwärtig, manchmal kommen Beleidigungen aber auf indirektem Weg. Ein Forscher der Universität Klagenfurt hat es sich zur Aufgabe gemacht, Klassifikatoren zu entwickeln, um solche „impliziten Beleidigungen“ im digitalen Raum besser aufzuspüren.

„Ich kann sehr kränkende Dinge sagen, ohne überhaupt Schimpfwörter zu verwenden“, so Michael Wiegand vom Digital Age Research Center (D!ARC) der Universität Klagenfurt: „Du siehst aus wie jemand, den nur eine Mutter lieben kann.“ Oder: „Ich bin froh, dass wir uns zumindest am Wochenende nicht sehen.“

Für einen Menschen sind diese Aussagen ganz klar Beleidigungen, aber Computerprogramme zur automatischen Erkennung von Hassrede (Hate Speech Detection) können solche sogenannten „impliziten Beleidigungen“ noch nicht erkennen, weshalb Wiegand an einem vom Wissenschaftsfonds FWF geförderten Projekt an ihrer automatisierten Erkennung arbeitet.

Anfang, aber keine Lösung

Offenkundige Schimpfwörter wie „Dummkopf“, „Idiot“ oder „Abschaum“ können Programme heutzutage leicht erkennen, aber indirekte Beleidigungen stellen eine große Herausforderung für die Wissenschaft dar. „Ich kann jemanden auf sehr unterschiedliche Art und Weise kränken“, so Wiegand gegenüber der APA. „Wenn Sie zu jemandem sagen: ‚Sie sind aber nicht sehr intelligent‘, werden das viele Systeme nicht als Beleidigung erkennen. Die Wörter an sich haben nichts Verdächtiges. ‚Intelligent‘ ist ja etwas Gutes. Negationswörter wie ‚nicht‘ findet man auch in allen Texten. Also denkt das Programm: Wieso sollte das eine Beleidigung darstellen?“

Aber der digitale Raum steckt voller beleidigender Kommentare und abwertender Bemerkungen. Ihre Identifizierung ist ein Anfang, aber keine Lösung. „Die Betreiber diverser Sozialer Medien sind da in der Pflicht, auf ihren Plattformen aufzuräumen“, so Wiegand. Wenn eine Social-Media-Plattform technisch in der Lage ist, Hassreden oder Beleidigungen automatisch zu erkennen, muss sie eine Entscheidung darüber treffen, wie sie damit umgeht.

„Es geht um das Zwischen-den-Zeilen-Lesen“

Es braucht Klassifikatoren, die nicht nur Schlüsselwörter, sondern auch sprachliche Muster automatisch erkennen können. Ein Mensch allein wäre damit überfordert, so große Mengen im Netz abzuarbeiten. Die Maschine steigert die Effizienz maßgeblich, sie hat aber auch ihre Grenzen, so Wiegand. „Es wäre anmaßend, zu behaupten, dass man alles automatisieren kann. Es geht um das Zwischen-den-Zeilen-Lesen, und das einer Maschine zu überlassen, die vielleicht schon direkt eine Anzeige macht, wäre hochgradig problematisch.“

Es gibt auch eine Reihe ethischer und rechtlicher Aspekte der Implementierung einer automatisierten Erkennung, über die kein Konsens herrscht. „Selbst milde Beleidigungen sollte man nicht verwenden, aber ein bisschen was muss eine Gesellschaft auch aushalten können.“ Und schließlich sei Sprache etwas sehr Lebendiges – und das erfordere automatisierte Erkennungssysteme, die sich mit der Online-Dynamik weiterentwickeln können. „Man sollte sich nicht der Illusion hingeben, dass wir irgendwann alles kartografiert haben. Nein, die Gesellschaft entwickelt sich weiter“, so Wiegand, „dementsprechend entwickelt sich Sprache weiter und damit auch Hate Speech und Beleidigungen.“