Was soziale Medien gegen Suizide tun

Suizide sind auch in sozialen Netzwerken ein heikles Thema. Facebook hat einen Algorithmus, mit dem es gefährdete Personen identifizieren will. Instagram zensiert Bilder. Expertinnen begrüßen die Auseinandersetzung, wünschen sich aber mehr Transparenz.

Facebook hat seit 2017 einen eigenen Algorithmus, mit dem es Einträge durchforstet, Hilfe anbietet oder die Polizei schickt, je nachdem, wie konkret jemand Suizid-Absichten äußert. Für „grundsätzlich positiv“ hält es die Psychologin Birgit Stetina von der Sigmund-Freud-Universität in Wien, mittels eines Algorithmus Personen zu identifizieren und sich nach deren Befinden zu erkundigen. „Der bedenkliche Aspekt ist das mangelnde Einverständnis der Nutzer. Sie wissen ja nicht, dass ihre Äußerungen zu diesem Zweck benutzt werden.“

In Europa nicht erlaubt

Diese fehlende Einverständniserklärung ist auch der Grund, warum Facebook Einträge aus Europa nicht auf Suizid-Gedanken scannt, hier ist das - Stichwort: Datenschutzgrundverordnung - rechtlich nicht zulässig. Im Rest der Welt wird das aber sehr wohl gemacht, seit 2017 hat Facebook laut eigenen Angaben 3.500-mal Ersthelfer zu suizid-gefährdeten Personen geschickt.

Hilfe im Krisenfall

Anfang Februar hat sich Instagram dafür entschieden, Bilder von Selbstverletzungen schwerer auffindbar machen und damit die Logik des Algorithmus zu durchbrechen, der bei depressiven Menschen besonders schädlich sein kann. Er spült immer mehr problematische Inhalte auf den Bildschirm, der Strudel aus selbstzerstörenden Gedanken kann sich dadurch noch vertiefen. Selbstverletzende Inhalte würden aber nicht komplett bei Instagram gestrichen, so Instagram-Chef Adam Mosseri anlässlich einer Pressekonferenz mit dem britischen Gesundheitsminister: „Wir wollen Menschen nicht stigmatisieren oder isolieren, die in Not sein könnten und als Hilfeschrei Fotos von Selbstverletzungen posten.“ Ob und wie das Unternehmen auf solche Veröffentlichungen abseits der erschwerten Suche reagiert, das ließ der Instagram-Chef freilich offen.

Kontakt mit geschulten Personen nötig

Sich in einem Forum mitzuteilen, kann grundsätzlich positiv wirken, sagt Birgit Stetina: „Es kann für Menschen durchaus erleichternd sein, wenn sie ihre schlimmen Gedanken äußern können.“ Sie fügt aber hinzu: „Das alleine ist natürlich nicht ausreichend.“ Und hier ist der Knackpunkt der Online-Angebote, den Facebook insofern zu lösen versucht, indem es nicht bei der Identifizierung gefährdeter Personen bleibt, sondern aktiv Hilfe anbietet oder schickt.

Die Silhouette einer Frau vor einem dunklen Baum.

APA/dpa/Julian Stratenschulte

Kommunikation in Online-Foren kann erleichtern, wichtig ist aber, dass kompetente Personen mit Betroffenen Kontakt halten.

Abgesehen von der Datenschutzproblematik zweifelt die Wiener Psychologin, dass das funktioniert. Denn es brauche gut ausgebildete Personen, die Kontakt mit Menschen in tiefen Krisen halten bzw. an geschulte Stellen verweisen: „Aufgrund eines Postings einzuschätzen, wie akut eine Suizidgefahr ist, ist wahnsinnig schwierig. Auf Basis der von Facebook veröffentlichten Beispiele würde ich mich das nicht trauen. Die weitreichende Verantwortung muss geteilt werden.“

Ö1 Sendungshinweis:

Über das Thema berichten auch die Nachrichten und das Mittagsjournal.

Instahelp, eine privat finanzierte Website für psychologische Online-Beratung, die Birgit Stetina wissenschaftlich berät, geht deshalb anders vor: Erstens müssen Menschen der Verarbeitung ihrer Daten zustimmen. Und zweitens ist für die Kontaktpersonen klar definiert, wie weit Online-Beratung gehen kann und wann Polizei oder Rettung kontaktiert werden muss.

Offenlegung und Nachvollziehbarkeit

„Rat suchende Menschen sind sich oft nicht im Klaren darüber, wohin sie sich mit ihrem Anliegen wenden können. Da ist das Internet natürlich essenziell“, so Birgit Stetina. Problematisch werde es dann, wenn Unternehmen wie Facebook aktiv sind, ohne die Arbeitsweise offenzulegen. Die Wiener Psychologin unterstreicht damit die Kritik internationaler Kollegen, die sie diese Woche in den „Annals of Internal Medicine“ geäußert haben.

Ihr Hauptpunkt: Wenn Facebook mit der Entwicklung maschinengestützter Verfahren medizinische Forschung betreibe, dann müsse das Unternehmen auch ethische Standards und Transparenzregeln der Wissenschaft einhalten - und das bedeutet Offenlegung und Nachvollziehbarkeit. Beides ist weder bei den von Facebook präsentierten Zahlen noch beim verwendeten Algorithmus der Fall, auch auf der Suicide Prevention Website von Facebook findet man dazu nichts.

Dass eine engere Vernetzung mit Sozialen Medien grundsätzlich sinnvoll wäre, betont auch Birgit Satke von „Rat auf Draht“ auf Anfrage von Ö1. Die Organisation erhält aus Datenschutzgründen keine Informationen von Facebook, Instagram und Co zu gefährdeten Personen. Wenn Hinweise einlangen, dann kommen sie von Jugendlichen selbst, etwa, wenn sie mit Menschen mit Suizid-Absichten chatten. Das überfordere junge Menschen, hier lautet die Message: Infos zu Hilfe weitergeben, aber sich nicht selbst mit Verantwortung überlasten.

Elke Ziegler, Ö1-Wissenschaft

Mehr zum Thema: