Große Augen, runder Kopf: Roboter „Pepper“ hat menschliche Züge
GABRIEL BOUYS/AFP
GABRIEL BOUYS/AFP
Buch „Fake AI“

„Künstliche Intelligenz wird überschätzt“

Selbstlernende Software hat in den vergangenen Jahren immense Fortschritte gemacht und weckt große Erwartungen. Das Buch „Fake AI“ warnt vor überzogenen Heilsversprechen von Entwicklerinnen und Entwicklern Künstlicher Intelligenz.

Eine Software, die an der Mimik erkennt, ob jemand lügt oder die Wahrheit sagt. Das verspricht das Projekt iBorderCtrl. Gedacht ist der auf Künstliche Intelligenz (KI) basierte Lügendetektor für die EU-Außengrenze. Ein Avatar befragt Einreisende und überprüft ihre Glaubwürdigkeit aufgrund von Augen- und Mundbewegungen. Im Verdachtsfall übernimmt ein Grenzbeamter. Das von der europäischen Kommission geförderte Projekt sorgte für viel Aufregung. Denn die wissenschaftliche Grundlage ist höchst umstritten.

Die Forschungscommunity sei sich recht einig darüber, dass computergestützte Emotionserkennung Pseudowissenschaft ist, sagt Frederike Kaltheuner von der NGO Human Rights Watch. „Wir sind nicht in der Lage anhand von Gesichtszügen eindeutig zu erkennen, ob jemand lügt. Das kann weder der Mensch noch eine Maschine. Wir Menschen sind dafür zu komplex. Die Software erkennt einzig Muster und stellt aus diesen Korrelationen her. Sie kann allerdings nicht unterscheiden, ob jemand Blickkontakt meidet, weil er oder sie Betrugsabsichten hat oder einfach nervös ist.“

Buchhinweis

Frederike Kaltheuner leitet die Abteilung für neue Technologien und Menschenrechte bei der NGO Human Rights Watch. Für das Buch „Fake AI“ hat sie verschiedenen Positionen gesammelt, die den Hype rund um KI problematisieren. Der Sammelband steht auch zum Download zur Verfügung.

KI nicht für alles geeignet

In den vergangenen Jahren, seien unzählige Produkte unter dem Schlagwort KI auf den Markt gekommen, die die wissenschaftliche Community für Unsinn und teilweise hochproblematisch halte, sagt Kaltheuner. Software hilft bereits Personalverantwortlichen auf der Suche nach geeigneten Jobkandidaten oder Richterinnen bei der Entscheidung, ob jemand auf Bewährung entlassen wird.

Bei einigen spezifischen Problemstellungen habe selbstlernende Software große Fortschritte gemacht, sie sei deshalb aber nicht für alle Aufgaben geeignet: „Die automatische Musterkennung, das maschinelle Sehen, hat sich enorm weiterentwickelt. Auf einem Foto ein Glas zu erkennen ist nicht trivial. Die Maschine muss in der Lage sein Glas und Hintergrund zu unterscheiden. Dann erst kann sie das Glas als solches kategorisieren.“

Hype flaut ab

Nur weil selbstfahrende Autos durch den Verkehr navigieren, oder Software Hautkrebs erkennen kann, heiße es noch lange nicht, dass man sie auf komplexe soziale Probleme loslassen könne, sagt Kaltheuner. In den Niederlanden berechneten Behörden mithilfe von Software das Risiko, dass Jugendliche kriminell werden und enttarnten vermeintliche Sozialhilfebetrügerinnen und -betrüger. Ein Gericht verbot der Behörde den Einsatz der Software mittlerweile, weil das System Menschen unter Generalverdacht stelle und es nicht nachvollziehbar sei, nach welchen Kriterien sie Sozialhilfebetrug vermeintlich erkennt.

Nach Jahren überhöhter Erwartungen sieht Frederike Kaltheuner den Hype rund um Künstliche Intelligenz bereits langsam abflauen. „In der Hype-Phase wurde versprochen, dass KI hochkomplexe Probleme wie den Klimawandel und Armut lösen kann. Die Ursache dieser Probleme ist aber oftmals mangelnder politischer Wille. Ich weiß nicht, ob die Pandemie Auslöser oder Symptom war, aber solche vollmundigen Versprechen liest man mittlerweile seltener.“