„Maschinen haben längst Bewusstsein“

Können Maschinen Bewusstsein entwickeln? Die Frage hat unzählige Science-Fiction-Autoren inspiriert - ihre Beantwortung spaltet die Wissenschaft. Für die Informatikerin Joanna Bryson ist hingegen klar: „Künstliche Intelligenz hat schon längst Bewusstsein entwickelt.“

„Die Frage ist nur: Welche Art von Bewusstsein?“, sagte Bryson im August letzten Jahres beim Forum Alpbach im Gespräch mit science.ORF.at. Wenn es um Eigenwahrnehmung gehe, seien sich Computer ihrer selbst mehr bewusst als Menschen, meint die Informatikerin an der University of Bath: „Ein Computer hat Zugang zu jedem Bit seines Speichers, also zu allen seinen Erinnerungen, und kann sie jederzeit abrufen. Es gibt kein Unbewusstes. Das macht Computer auch kontrollierbarer als Menschen.“

Grundlegender Unterschied zum Menschen

Künstliche Intelligenz (KI) könne wie natürliche Intelligenz Erfahrungen bewusst wahrnehmen, Entscheidungen treffen und handeln - und für die Entscheidungen ihre Erinnerungen miteinbeziehen. Einen Unterschied zum menschlichen Bewusstsein gebe es dennoch, so Bryson: die spezifisch menschlichen Erfahrungen, die wir in unser Bewusstsein einbauen.

Die Informatikerin Joanna Bryson beim Europäischen Forum Alpbach

Katharina Gruber, ORF

Joanna Bryson bei den Wirtschaftsgesprächen des Europäischen Forums Alpbach

„Maschinen können die Bedeutung von Wörtern lernen, aber sie können diese Bedeutung nicht fühlen. Lieben, sich ausgeschlossen fühlen, gewinnen, verlieren – diese Dinge bedeuten etwas für uns, weil wir soziale Wesen sind. Wir teilen Gefühle mit Affen und anderen Tieren. Aber nicht mit Computern.“

Keine Gefühle ohne Körper

„Viele Leute denken, man muss künstlicher Intelligenz persönliche Rechte einräumen, weil sie ein Bewusstsein hat. Aber es sind bloß Maschinen“, erklärt Bryson. Diese Maschinen lernen allerdings aus ihren Erfahrungen und werden immer intelligenter. Was also, wenn sie lernen würden, Gefühle zu entwickeln? Das hält Bryson nicht für möglich: „Hier wird es immer einen Unterschied in der Erfahrung geben.“ Für Gefühle braucht es einen biologischen Körper, ist sie überzeugt.

Wenn wir nicht nur neuronale Netzwerke simulierten, sondern einen gesamten Körper mit Nerven und Hormonen nachbauen würden, dann ginge es nicht mehr um künstliche Intelligenz: „Dann bauen wir einen Klon. Würden wir Menschen klonen, müssten wir die Klone auch wie Menschen behandeln und ihnen Rechte zugestehen. Künstliche Intelligenzen bleiben aber Maschinen. Das muss man klar unterscheiden.“

Die Informatikerin Joanna Bryson vor den Bergen beim Forum Alpbach

Katharina Gruber, ORF

Man kann aber das Ausdrücken von Gefühlen programmieren: „Man könnte einen Computer so programmieren, dass er nach anderen Computern sucht, wenn keine in der Nähe sind, und dass das eine hohe Priorität hat. Man hätte den Eindruck, er würde sich einsam fühlen, aber er tut es in Wirklichkeit nicht.“

Dass KI so wirken kann, als hätte sie Gefühle, verunsichert Menschen, meint Bryson: „Wir haben Angst davor, Computer nicht korrekt zu behandeln. Aber ein Computer leidet nicht, nur der Programmierer kann leiden.“

Regulierung und Kontrolle nötig

Eine Ethik der künstlichen Intelligenz muss also laut der Wissenschaftlerin den Menschen im Mittelpunkt haben. „Wir brauchen unbedingt Regulierung und Kontrolle der KI“, meint die Informatikerin, etwa im Bereich der automatischen Waffen und bei der Verwendung von Big Data. Und zwar auf transnationaler Ebene, denn:

Ö1-Sendungshinweis

Joanna Brysons Forschung widmete sich auch ein Beitrag in Digital.Leben am 31.8.2017.

„Eine nationale Regierung, die durch Hacking oder gezielten Einsatz von Big Data im Wahlkampf an die Macht kommt, hat wohl kaum ein Interesse daran, KI zu regulieren. Ein ähnliches Problem haben wir jetzt in Großbritannien. Wir wissen dass die Leistungen der Datenanalysefirma Cambridge Analytica für die Leave-Kampagne gratis zur Verfügung gestellt wurden.” Mit Hilfe der Daten konnte vermutlich gezielt Wahlwerbung für den „Brexit“ betrieben werden.

Nie den Maschinen die Schuld geben

„Gefährlich an künstlicher Intelligenz ist auch, dass man sie Dinge machen lassen kann, die man selbst nie tun würde, zum Beispiel Menschen töten. Das ist vor allem in der Kriegsführung relevant.“

Die Robotergesetze, die Isaac Asimov 1942 formulierte und die heute noch in der Debatte um eine KI-Ethik eine Rolle spielen, besagen unter anderem, dass Roboter kein menschliches Wesen verletzen dürfen. Bryson hält diese Gesetze für obsolet: „Es gibt bereits Roboter, die Menschen töten. Sie kommen in Kriegsgebieten zum Einsatz. Ein solches Robotergesetz würde an der Realität scheitern.“ Trotzdem müssten wir uns überlegen, welche Ethik für künstliche Intelligenz gelten solle.

Das oberste Prinzip für die Informatikerin in einer solchen Ethik: Man kann nie einem Roboter die Schuld geben für seine Taten. Es gibt immer Menschen, die für die Handlungen der Roboter verantwortlich sind. „Wenn Verantwortliche sagen, die KI trifft die Entscheidungen, dann ist das bloß ein Versuch, sich der Verantwortung zu entziehen.“ Nur Programmierer und ihre Auftraggeber können ethisch falsch handeln, nicht die Roboter.

Katharina Gruber, ORF-Landesstudio Wien, aus Alpbach

Mehr zu dem Thema: