„Für Freiheit gibt es keine Garantien“

Die künstliche Intelligenz (KI) entwickelt sich rasant – ungeklärt ist indes die Frage: Was dürfen intelligente Maschinen eigentlich? Sollten sie auch Moral besitzen? Der Philosoph Mark Coeckelbergh hat untersucht, wo die blinden Flecken in dieser Debatte liegen.

Das Thema beschäftigt dieser Tage auch die hohe Politik. Die EU hat letztes Jahr 50 „High Level Experts“ - darunter Coeckelbergh - beauftragt, einen ethischen Regelkatalog für künstliche Intelligenz zu entwickeln. Heute wird das Dokument in Brüssel offiziell vorgestellt. Ob daraus auch rechtlich bindende Regeln entstehen, wird sich weisen.

Coeckelbergh jedenfalls hält entsprechende Gesetze für unumgänglich. Denn die Macht der Algorithmen könnte unsere Freiheit bedrohen - in Ansätzen tue sie das schon hier und jetzt, warnt der Technikphilosoph und Robotik-Experte: „Wir haben in Europa bereits einige Schritte in Richtung Überwachung gesetzt.“

Herr Coeckelbergh, das heute präsentierte Dokument beinhaltet einen ethischen Regelkatalog für künstliche Intelligenz (KI). Das impliziert, dass KI auch unethisch sein kann. Wo sehen sie die größten Gefahren?

Mark Coeckelbergh: Abgesehen von den üblichen Sicherheitsfragen, die sich bei allen digitalen Technologien stellen – also etwa Hackerangriffe, Datensicherheit, Privatsphäre -, sehe ich drei Problemfelder: nämlich Verantwortung, Verständlichkeit und Einseitigkeit.

Zur Person

Mark Coeckelbergh ist Professor für Medien- und Technikphilosophie an der Universität Wien, Mitglied des österreichischen Roboter-Rats sowie der Foundation for Responsible Robotics.

Bericht

Der EU-Regelkatalog für künstliche Intelligenz wurde heute in Brüssel vorgestellt:

Was heißt das konkret?

An der Entwicklung von KI sind viele Leute beteiligt: Die einen erstellen die Datenbasis, andere schreiben die Algorithmen – und wieder andere wenden die Technologie an. Wir müssen klären, wer wann welche Verantwortung trägt. Das ist nicht einfach. Ein anderes Problem ist: Wenn KI Entscheidungen trifft, ist nicht immer nachvollziehbar, wie es zu dieser Entscheidung kam. Wir sind den Menschen gegenüber aber verpflichtet, das erklären zu können. Mit „Einseitigkeit“ meine ich: Wir haben jetzt schon in der Gesellschaft das Problem, dass Minderheiten zu wenig beachtet werden. Und genau diese Tendenz kann die KI verstärken – dann zum Beispiel, wenn lernende Maschinen mit unausgewogenen Informationen über die Gesellschaft gefüttert werden.

Wie lassen sich diese Probleme lösen?

Zum einen über klare, festgeschriebene Regelungen. Denkbar wären auch Zertifikate, die anzeigen, ob die Verantwortungsfrage bei einer Technologie geklärt ist. Aber das allein genügt nicht: Wir müssen auch ein Problembewusstsein bei allen Beteiligten schaffen, bei den Technikern ebenso wie in der Industrie.

Positiv gewendet: Gute KI zeichnet sich aus wodurch?

Sie sollte den Menschen einen Nutzen bringen. Und sie sollte die Gesellschaft fairer machen als sie jetzt ist.

Wenn zum Beispiel ein medizinisches Expertensystem eine Fehldiagnose trifft, wer ist schuld: der Programmierer oder die Ärztin?

Ich gehe davon aus, dass die Verantwortung nicht nur einer Person zuzuschreiben ist. Wie das genau zu passieren hat, hängt wohl auch vom konkreten Fall ab. Das Beispiel zeigt gut, wie schwierig diese Probleme zu lösen sind. Fakt ist: Wir müssen uns diesen Fragen stellen. Die künstliche Intelligenz wurde bisher fast ausschließlich aus technologischer Sicht betrachtet. Was wir jetzt brauchen, ist eine Debatte über die sozialen Konsequenzen der KI.

Werden die ethischen Richtlinien des Dokuments auch in konkrete Gesetze einfließen?

Unsere Expertengruppe enthält ja nicht nur Fachleute aus der Wissenschaft, sondern auch Vertreter der Konsumenten und Firmen. Und ich denke, dass die allermeisten sehr erfreut wären, wenn es nicht nur bei Richtlinien bliebe. Ich betrachte das Dokument als wichtigen ersten Schritt. Wenn man sichergehen will, dass etwas passiert, dann sind Verordnungen oder Gesetze aus meiner Sicht unumgänglich. Ich hoffe, dass sich die Parlamente von dem Dokument inspirieren lassen. Ich möchte nicht, dass der Text bloß eine lahme Ente ist – und die Leute sagen: Ja, das ist akademisch interessant, aber wir tun nichts.

Philosoph Mark Coecklbergh

Uni Wien / Mark Coecklbergh

Mark Coeckelbergh

Ein Beispiel aus der Bioethik: Im Fall der neuen Genschere CRIPR/Cas gibt es in der Wissenschaftsgemeinde die Übereinkunft, dass diese Technologie nicht am Menschen angewendet werden soll, bis Sicherheitsfragen restlos geklärt sind. Nun hat aber kürzlich ein chinesischer Forscher mit dieser Genschere kürzlich ins Erbgut von Kindern eingegriffen. Das Designer-Baby, vor dem lange gewarnt wurde, ist bereits Realität. Was lernen wir daraus? Dass alles, was technisch möglich ist, früher oder später getan wird?

Es wird immer Menschen geben, die sich unethisch verhalten. Nur ist das nach meiner Ansicht kein Grund, in Pessimismus zu verfallen und nichts zu tun. Wir brauchen in dieser Frage klare Gesetze. Und wenn das einmal gesetzlich geregelt ist, dann ist so ein Vorgehen ein krimineller Akt.

Sprechen wir über autonome Autos: Es gibt wohl einen Konsens darüber, dass so ein Vehikel bremsen sollte, um das Leben von Rehen, Hunden oder Katzen zu schützen. Aber wo ist die Grenze? Sollte es auch für Mäuse oder Schnecken auf der Straße bremsen?

Wenn ich als Fahrer diese Entscheidung treffen müsste: Bei niedrigem Tempo würde ich sicher auf die Bremse steigen. Aber würde ich es auch bei hohem Tempo tun? Ich weiß es nicht. Das zeigt, wie problematisch es ist, Moralität in eine Maschine einzubauen. Wer entscheidet, welche konkreten Regeln das sind? Und welche moralischen Werte liegen den Regeln zugrunde? Werte sind ja keine Objekte, die man so einfach pflücken kann. Hier sehe ich eine wichtige Aufgabe für uns Philosophen: Wir können und müssen den Menschen helfen, ihre Werte explizit zu machen. Es braucht eine öffentliche Debatte über solche Fragen.

Ein extremes Szenario: Ein autonomes Auto wird in einen Unfall verwickelt, kann aber in letzter Sekunde die Entscheidung treffen, entweder mit zwei Kindern oder mit drei Erwachsenen zu kollidieren. Gibt es auf solche Fragen überhaupt eine Antwort?

Es gibt kulturelle Neigungen. In westlichen Ländern würden die meisten Menschen wohl eher die Kinder schützen. Aber es gibt auch Kulturen, wo das nicht so ist. Ich denke, dass wir bei Unfällen mit menschlichen Entscheidungen leben können. Aber ich denke nicht, dass wir einem Auto so eine Entscheidung durch eine fixe Regel vorgeben wollen. Solche Dilemmata sind vor allem für philosophische Debatten relevant – aber zum Glück nicht für den Alltag im Straßenverkehr.

Durchleuchtete Gesellschaft: Überwachungskameras in Peking

APA/AFP/NICOLAS ASFOURI

Soziales Punktekonto: China bastelt am digitalen Überwachungsstaat

In China wird Software für automatische Gesichtserkennung bereits im großen Stil eingesetzt. Wie kann man verhindern, dass sich auch Europa in diese Richtung entwickelt?

Was mit dieser Technologie möglich ist, zeigt ein Fall aus Südostchina im letzten Jahr: Da gelang es der Polizei mit Hilfe von Gesichtserkennungssoftware einen Verdächtigen festzunehmen – der Mann wurde bei einem Popkonzert mit 50.000 Besuchern aus der Menge gefischt. Dass solche Technologien auch totalitären Systemen in die Hände spielen, liegt auf der Hand. Und wir sollten dabei nicht nur an Staaten denken: Diese Technologien verleihen auch Firmen große Macht. Verhindern kann man solche Tendenzen wohl nur mit Gesetzen, hier ist die Politik gefragt.

Können Sie ausschließen, dass unsere Handys bei unserem Gespräch mitlauschen?

Nein, das kann ich nicht. Ich halte es für durchaus denkbar, dass unser Gespräch mit Hilfe von Algorithmen analysiert wird. Und ich bin überzeugt davon, dass das in manchen Fällen tatsächlich geschieht. Der Datenhunger ist groß – um das einzusehen, müssen wir nicht nach China blicken: Es passiert auch hier im kommerziellen Bereich, wir haben auch in Europa bereits einige Schritte in Richtung Überwachung gesetzt.

Eigentlich eine schockierende Diagnose.

Mich stimmt es traurig. Die Hoffnung war ja, dass uns die digitalen Medien mehr Freiheit schenken würden. Doch ab den 90er-Jahren nahm die Entwicklung eine andere Richtung. Wir leben in schwierigen Zeiten – und müssen erkennen: Für die Freiheit gibt es keine Garantien. Wir müssen etwas dafür tun.

Postskriptum: Dass ethische Fragen in der künstlichen Intelligenz bislang unterbelichtet wurden, ist auch Google nicht verborgen geblieben. Der Internet-Konzern ging zunächst mit gutem Beispiel voran, gründete einen Ethikrat - und hat ihn, wie kürzlich bekannt wurde, nach nur einer Woche wieder aufgelöst. Es sei klar geworden, dass der Ethikrat „im aktuellen Umfeld nicht so funktionieren kann, wie wir das wollten“, teilte das Unternehmen letzten Donnerstag mit. „Also beenden wir das Gremium.“

Interview: Robert Czepel, science.ORF.at

Mehr zu diesem Thema: