Programmcode auf Bildschirm
Sashkin/stock.adobe.com
Sashkin/stock.adobe.com
Künstliche Intelligenz

„Das sind Geschichtenmaschinen“

Die jüngsten Entwicklungen im Bereich künstliche Intelligenz haben die Frage aufgeworfen, ob Systeme wie ChatGPT irgendwann zu mächtig werden könnten. Gefahren gebe es, und man müsse sie ernst nehmen – noch sei der Menschen aber überlegen, so der Tenor bei einer Konferenz in Wien.

Die oft widerlegte Behauptung „Die Masernimpfung kann Autismus verursachen“ hält sich seit vielen Jahren hartnäckig im Internet. Wenn Systeme wie ChatGPT so trainiert würden, dass sie genau auf diese Informationen zugreifen, würden sie auf die Frage „Hat die Masernimpfung gefährliche Nebenwirkungen?“ genau diese Falschinformationen ausspuken.

Das ist die größte Gefahr, so Hannes Werthner, ehemaliger Dekan der Fakultät für Informatik an der TU Wien und einer der Hauptorganisatoren der internationalen Tagung in Wien: „Das sind Geschichtenmaschinen, keine Wahrheitsmaschinen. Und das Problem ist: Wie kann man das abschätzen, was hier richtig oder falsch ist?“

“Liege nachts wach“

Dass es nun zu so großen Fortschritten – Stichwort ChatGPT – gekommen ist, hat für Werthner mehrere Gründe: „Wir haben leistungsfähigere Computer und Prozessoren sowie große Speicherkapazitäten. Die Algorithmik ist besser geworden, also die Methode, wie gelernt wird. Und außerdem stehen durch Google & Co. große Datenmengen zur Verfügung.“

Bei den Daten brauche es Transparenz, ebenso wie bei den Rechenoperationen, so Alison Stanger vom Middlebury College in Vermont, die ein Forschungsnetzwerk zu neuen Technologien an der Harvard University leitet. Dass es diese Transparenz nicht gibt, lasse sie nachts wach liegen: “Wir wissen nicht zur Gänze, wie diese Modelle arbeiten. Aus meiner Sicht ist das einzigartig in der Geschichte der Menschheit.“

Bröckelnde Basis der Demokratie

Nie zu wissen, ob man einer Information trauen kann, ob ein Video auch so gedreht wurde – dieser radikale Zweifel an allem und jedem sei die wirkliche Gefahr für die Demokratie, so Stanger: „Wir drohen, den gemeinsamen Raum für Diskussion und Konsens zu verlieren. Demokratie funktioniert nicht, wenn Menschen meinen, dass Wahrheit nur eine Frage der Perspektive oder des Standpunkts ist.“

Hier brauche es Regulierung, die Pflicht, Fakes als solche auszuweisen etwa, und Bildung, um zu erkennen: Auch wenn Modelle wie ChatGPT wie Menschen antworten, sie bleiben Maschinen, wie es der Informatiker Enrico Nardelli von der Universität Roma ‚Tor Vergata‘ in Italien in einem Interview mit Ö1 am Rande der Konferenz sagt: „Es ist wichtig, schon Kindern beizubringen, dass die Maschinen nur menschlich scheinen, menschliche Qualitäten wie Ehrlichkeit oder Verlässlichkeit für sie aber keine Relevanz haben.“

Abstraktion und Flexibilität macht Menschen überlegen

Es gibt Gefahren, und man muss sie ernst nehmen – das war ebenso der Tenor der internationalen Konferenz in Wien wie die Einschätzung, dass die Maschinen den Menschen in Sachen Intelligenz noch nicht übertrumpfen.

„Es gibt etwas wie eine Einzigartigkeit des Menschen. Der Mensch kann abstrahieren, er kann sich einer Situation anpassen. Das können diese Maschinen nicht", so der Informatiker Hannes Werthner. So mühsam also unberechenbare Reaktionen von Menschen manchmal sein können – im Wettlauf mit den Maschinen ist die Flexibilität des Menschen immer noch ein großer Pluspunkt.