Wohlfahrtssystem

Forscherin warnt vor „Datafizierung“

Vielerorts wird über mehr oder weniger automatisierte Systeme gesprochen, die Entscheidungen rund um die Gewährung von Beihilfen oder zur Vermittelbarkeit und Weiterbildungen am Arbeitsmarkt treffen. Eine Technikforscherin warnt vor einem zu technisierten Blick mit dem reinen Fokus auf Effizienz und Effektivität, die diese „Datafizierung“ in Sozialsysteme mit sich bringt.

„Wie zukunftsfähig sind unsere Infrastrukturen?“, fragt das Institut für Technikfolgen-Abschätzung (ITA) der Österreichischen Akademie der Wissenschaften (ÖAW) heute im Rahmen seiner Jahreskonferenz. Viel wurde in den vergangenen Jahren im Zusammenhang mit der CoV-Pandemie und dem Ukraine-Krieg über Lieferketten, Energienetze oder das Gesundheitssystem diskutiert, der Blick auf die Infrastrukturen in Sozialsystemen wurde hingegen weniger prominent verhandelt. Die hohen Teuerungsraten der vergangenen Jahre erhöhen jedoch den Run auf Beihilfen und Co.

Schon vor den hohen Inflationsraten gab es auch in Österreich Bestrebungen, technische Systeme auf Basis von Personendaten Einteilungen treffen zu lassen, die Entscheidungen im Sozialbereich zumindest unterstützen. Prominentestes Beispiel hierzulande ist der „AMS-Algorithmus“, mit dem die Vermittelbarkeit von Personen eingeschätzt werden soll.

Veränderte Logik

Auf der Tagung stellt ITA-Forscherin Doris Allhutter das internationale Projekt „Automating Welfare“ vor, in dessen Rahmen sie mit ihrem Team und internationalen Partnern solche Systeme in acht europäischen Staaten erforscht. Wenn es um Infrastrukturen geht, wird oft an Strom- oder Verkehrsnetze gedacht. Die Auswirkungen der „Algorithmisierung“ in der Wohlfahrt haben aber ebenso infrastrukturelle Effekte, so die Forscherin.

Immerhin werden im großen Stil Daten gesammelt und miteinander verknüpft, um damit Entscheidungen im Sozialbereich zu treffen. Durch diese „Datafizierung“ wird oft von Gruppendaten auf Individuen geschlossen. Wenn in der Wohlfahrt automatisierte oder halbautomatisierte Entscheidungssysteme eingeführt werden, werde dies das Sozialnetz über viele Jahre hinweg prägen, so die Wissenschaftlerin: „Eine solche Infrastruktur ist ja etwas Dauerhaftes.“ Wenn hier jetzt Pflöcke im Sinne von Entscheidungssystemen eingeschlagen werden, die das Leben von Menschen potenziell sehr stark beeinflussen, verändere dies auch die Logik hinter den Sozialsystemen und die Beziehung zwischen Bürgerinnen und Bürgern und dem Staat.

Fokus auf Effizienz

Momentan dominiere hier oft eine technische Sicht, wo wiederum der Gedanke des Hebens der Effizienz im Sozialsystem prominent vertreten ist. So wird etwa in Dänemark über Datenanalyse-Ansätze versucht, Wohlfahrtsbetrug aufzudecken. Insgesamt verändert Datenanalytik in vielen Staaten Europas, wie Bürger mit Verwaltung und Staat in Kontakt kommen. Vielfach wird das von starken Bedenken bezüglich Bürger- und Menschenrechtsverletzungen begleitet.

Oft stehe der Gedanke im Vordergrund, mit den neuen Methoden, die die Digitalisierung mit sich bringt, „einfach etwas machen zu wollen – ihr Potenzial zu erproben“, so Allhutter: „Hat man aber einzig Effizienz und Effektivität als Leitbild, fällt viel aus dem Blick.“ Wenn hier Finanzmathematiker, Programmierer, Designer und Co. federführend Systeme entwickeln, komme der Gedanke, dass sie die Bedürfnisse von Menschen erfüllen sollen, mitunter zu kurz.

„Gerade im Sozialbereich geht es um Gleichheit und Gerechtigkeit“, sagte die ITA-Forscherin und mahnt daher „andere Leitbilder“ ein. Man dürfe auch nicht vergessen, dass neben Menschen, die Sozialleistungs-Anträge stellen, auch Sachbearbeiterinnen und Sachbearbeiter mit den Auswirkungen zurechtkommen müssen.

Intransparente Entscheidungen

Während erstere Gefahr laufen, dass Entscheidungsgrundlagen immer unverständlicher werden, ist es für Entscheider extrem schwierig, Verzerrungen – sogenannte „Biases“ – zu erkennen, die in vielen Systemen schlummern. Zu Fairnessfragen gebe es zwar schon viel Forschung, die aber kaum in die Entwicklungen einfließe. „Viele Leute wissen gar nicht, dass Algorithmen Entscheidungen beeinflussen. Der Einsatz solcher Systeme ist oft völlig intransparent“, so Allhutter.

Angesicht der Tatsache, dass solche Praktiken bereits mehrfach gescheitert sind bzw. von Gerichten unterbunden wurden, brauche es bestimmte Grundvoraussetzungen. So etwa, dass keine mehr oder weniger „lebenswichtigen“ Entscheidungen von semi- oder vollautomatischen Systemen getroffen werden dürfen. Zudem brauche es klare Rechtsrahmen, Möglichkeiten zur Einsichtnahme sowie niederschwellige Erklärungen zu den Ergebnissen und Ansprechpersonen. Außerdem müssten die lernenden Systeme überprüft werden, da sich deren Dynamik über die Zeit hinweg auch verändern kann, so die Forscherin.