Der Molekularbiologe Joshua Lederberg vor einem Computer in den 1950er Jahren
Science Source / PhotoResearchers / picturedesk.com
Science Source / PhotoResearchers / picturedesk.com
Forschungsgeschichte

Man muss es nicht künstlich intelligent nennen

In den 1980er Jahren haben die Schlagzeilen gelautet: Journalisten, Manager oder Lehrer werden durch Roboter ersetzt. Heute reicht ein Chatbot wie ChatGPT, um für ähnliches Aufsehen zu sorgen. Dabei sind die Ideen an die 80 Jahre alt. Und ihre Ergebnisse muss man nicht künstlich intelligent nennen.

In den 1930er Jahren sprach man noch nicht von „künstlicher Intelligenz“, sondern von biologischen Systemen und Neuronen. „Command and Control“, Feedback und Selbstorganisation, genauso wie zuckende Froschbeine. Das interessierte die Begründer der Kybernetik, Norbert Wiener und John von Neumann. Psychologen, Psychiater und Anthropologen saßen mit den Mathematikern gemeinsam am Tisch, wenn es darum ging, eine im Grunde uralte Idee neu zu überdenken. Nämlich, den Menschen einen Blechtrottel zur Seite zu stellen. Ob als Erweiterung oder Abbild, das ist bis heute nicht ausverhandelt.

Sendungshinweis

Ö1 Dimensionen: Künstliche Intelligenz: Die vergessenen Pioniere, 23. August 2023

In den 1930er Jahren waren die Wissenschaftler jedenfalls davon überzeugt: So etwas wie Geist, Intelligenz oder Verstand brauche eine Hülle, schreibt Margaret Boden, britische Kognitionswissenschaftlerin und Chronistin der KI-Geschichte, in ihrem Buch „Mind as Machine“ 2006: „Fakten über das Gehirn haben unterschiedliche Ausprägungen der Künstlichen-Intelligenz-Forschung geprägt, genauso wie ihre Cousine, die Kybernetik. Außerdem verläuft der intellektuelle Austausch zunehmend in beide Richtungen. Computergestützte Ideen inspirierten eine der berühmtesten Arbeiten der Neurophysiologie, ‚What the Frog’s Eye Tells the Frog’s Brain‘ (Jeromie Lettvin und andere, 1959). Und sie werden seit dreißig Jahren zur Modellierung des Gehirns verwendet. Von Neumann, Turing und Ross Ashby waren für diese Entwicklung entscheidend.“

Computer als biologisches System

Der Mathematiker und Ingenieur John von Neumann griff – ganz im Trend der 1930er Jahre – für die Funktionsbeschreibungen eines Computers auf das Vokabular von biologischen Systemen zurück. In seinen ersten Skizzen bezeichnete er den zentralen Baustein seiner Maschine noch als Organ. Heute sagt man dazu nüchtern CPU, zentrale Prozessoreinheit. Damals war der Rechner noch blind. Von einer GPU, einer Grafikkarte, wagte noch niemand zu träumen. Heute spielt sie bei der Verarbeitung der Datenmasse in neuronalen Netzwerken eine wichtige Rolle. Genauso wie der Datenspeicher, den John von Neumann als das Gedächtnis der Maschine beschrieb.

Das Missverständnis, dass damit Maschinen vermenschlicht werden sollten, begann mit der Wortwahl. Aber vielleicht war der Grund dafür trivial. Als die Kybernetiker anfingen, über die neue Maschine Computer nachzudenken, dachten sie auch über Physiologie nach.

Der englische Psychiater Ross Ashby konstruierte ein kleines Gerät namens „Homeostat“. Es war einer der ersten Maschinen, die sich an ihre Umwelt anpassten, indem es versuchte, vier Rückkoppelungskreise ins Gleichgewicht zu bringen. Der Idealzustand des Homeostat war der Stillstand. Das begeisterte die Kybernetiker, aber Medien und Kollegen zogen bald gelangweilt weiter. Von einer neuen, vom Menschen geschaffenen Wundermaschine, ausgestattet mit „Gehirn“ und „Gedächtnis“, hatte man sich mehr erwartet als eine schlafende Maschine.

Ross Ashbys Homeostat
Ross Ashbys Homeostat

Was als intelligent gilt, ändert sich

Zu Wort meldete sich auch der Engländer Alan Turing. Er ersann das Kriterium „Intelligenz“ als Referenzpunkt, um die Funktionalität der Maschine zu beurteilen. Heute würde man das vielleicht als eine Art Benchmark-Test bezeichnen. Es gibt sie für Software, Hardware und auch Chatprogramme. OpenAI, das gerade medial die Nase vorne hat, schneidet dabei nicht immer am besten ab. Es ist ein Auf und Ab. Und dasselbe gilt für den Turing-Test. Denn was als „intelligent“ beurteilt wird, das ändert sich wie die Sprache laufend.

"Turing war einer der wenigen, die das allgemeine Potenzial eines Computers erkannte. Er verwendete die Maschine für nicht-numerische Aufgaben, wie die Erstellung von ‚Liebesbriefen‘. Er programmierte sie so, dass sie auf ihrer Hupe ’Musik‘ spielte, allerdings nicht, um Melodien zu komponieren. Das hatte wiederum Ada Lovelace im Sinn“, schreibt Margaret Boden.

Der „Turing-Test“, so der Logiker und Informatiker Georg Gottlob von der Oxford University und der TU Wien, zielte nicht darauf ab, dass die Maschine wie der Mensch funktioniere. „Der Turing-Test sagt: Ein System ist intelligent, wenn man es nicht mehr von einem Menschen unterscheiden kann. Wenn ein Interviewer, der zum Beispiel über ein Telefon mit einem Menschen oder über einen Computerbildschirm einerseits mit einem Menschen und andererseits mit einem Computer verbunden ist, nicht unterscheiden kann, wer der Mensch und wer der Computer ist. Es heißt gar nicht, dass der Mensch und der Computer gleich arbeiten müssen, es muss nur das gleiche herauskommen“, sagt Gottlob.

Vom Militär gefördert

Dieses Ziel könnte man aber auch einfacher und ganz ohne Maschine erreichen: Indem man den Menschen dümmer macht als er ist und ihm das kritische Denken, das Nachfragen und Hinterfragen abgewöhnt. „Das Allerwichtigste scheint mir zu sein, den jungen Leuten kritisches Denken beizubringen – nicht nur über Wissenschaft, Technik, Fortschritt usw., sondern allgemein“, meinte der Computerwissenschaftler Joseph Weizenbaum 1989 in einem Studiogespräch mit „Oberösterreich Heute“.

Mit ein Grund, warum Weizenbaum, der 1965 den Chatbot Eliza schrieb, bereits in den 1970er Jahren einmahnte, sich doch daran zu erinnern, woher der Computer kommt. Die Entwicklung wurde vom Militär gefördert und diente der USA dazu, ihre technologische Vormachtstellung zu behaupten. Vor allem nach der Schlappe mit „Sputnik“, war dieses Argument maßgeblich für die Vergabe von Fördergelder.

Der Computerwissenschaftler Joseph Weizenbaum 1989 beim Interview in „Oberösterreich heute“
ORF
Weizenbaum 1989 beim Interview in „Oberösterreich heute“

Chatbot bestand schon in 60er Jahren Turing-Test

Der Chatbot Eliza hatte keine Schwierigkeiten, den Turing-Test zu bestehen. Medien zeigten sich beeindruckt, und wie heute wurde die Aufmerksamkeit sehr schnell darauf gelenkt, welche Berufe man damit einsparen könne. Psychologen, Lehrerinnen, Generäle waren die ersten Kandidaten. Journalistinnen hingegen hatten damals noch bessere Karten. Sie sorgten für die Verbreitung der Botschaft. Es gab damals weder das Internet noch einen „Personal Computer“. Die Allgemeinheit war damals noch ausgeschlossen. Sie war weder Dialogpartner noch Textlieferant. Dafür musste erst das „ReadWriteWeb“ erfunden werden. Heute besser bekannt unter dem Begriff „social media“, mit seinen Plattformen. Die Intelligenz der Maschinen wurde an den Wissenschaftlern selbst und der Berufsgruppe „General“ gemessen.

Konversation mit dem Chatbot Eliza
Konversation mit Eliza

Den Begriff „künstliche Intelligenz“ führte John McCarthy ein. Der Mathematiker organisierte 1956 das Summer Research Project on Artificial Intelligence in Dartmouth, USA und er insistierte auf den Begriff „Artificial Intelligence“, weil er nicht über Apparate und Kybernetik, sondern über Computerwissenschaft, computerbasierte Psychologie und über die These, „dass jegliche Form von Intelligenz sich exakt beschreiben lässt und damit von jeder Maschine simuliert werden kann“, sprechen wollte.

“Chatbots sind ein Blödsinn“

Die Programmierer von Dialog- oder Frage/Antwort-Systemen, wie Joseph Weizenbaum und andere sie in den 1960er und 70er Jahre geschrieben haben, rechneten nicht damit, dass ihre Ansätze ernsthaft als „Abbild der Welt“ genommen werden. Vielmehr – so die Computerlinguistin Brigitte Krenn vom österreichischen Forschungsinstitut für Artificial Intelligence – habe Weizenbaum mit Eliza versucht zu sagen, dass so etwas wie ein Chatbot ein Blödsinn sei. Allerdings sei er zu schlau vorgegangen, und habe den Dialog in Form einer psychologischen Kommunikationsführung abgebildet. „Wenn man so tut, als wäre man ein Psychotherapeut und dann noch fragt: Was hat das mit deiner Mutter zu tun? – dann kommen die Leute ins Reden.“

Aber das war es auch schon wieder. Eine ernsthafte Auseinandersetzung mit seinem menschlichen Gegenüber fand dabei nicht statt. Vielleicht mit ein Grund, warum andere Frage/Antwort-Systeme der 1960er Jahre eher mit der Lösung von Rätseln experimentierten als mit Psychologie und psychologischer Kriegsführung, wie sie die „Advanced Research Project Agency“ (ARPA) – die 1972 das Wort „Defence“ vorgehängt bekam – finanziell förderte.

Veranstaltungshinweis

Vom 12. bis 15. September findet an der Universität Wien und online die Konferenz „Language, Data and Knowledge“ statt.

Link

Je nach Jahrzehnt funktionierte die Einordnung von Sprache für die Modellierung der computerbasierten Sprachsysteme entweder anhand von Phrasen, Wörtern und Wortpaaren. Das, so der Computerwissenschaftler Terry Winograd, ist die Geschichte der Entstehung des Programm namens Shrdlu. Er las 1971 im Magazin „Mad“ einen Artikel über die Erstellung englischer Kreuzworträtsel. Darin wurde die Häufigkeit der Buchstaben diskutiert. Vokale kommen am häufigsten vor. Klar, aber es gibt auch eine statistische Reihung der Konsonanten. Winograd las den Artikel, und er hatte einen Namen für sein Sprachsystem: Shrdlu.

Reichen Texte, um die Welt zu verstehen?

Genauso wie Eliza wurde auch Shrdlu gefeiert. Nicht unbedingt in der Öffentlichkeit, aber unter Kollegen. Nur Terry Winograd selbst wurde mit seiner Arbeit immer unzufriedener. In seinem Aufsatz „Thinking machines: Can there be? Are we?“ schrieb er: "Die Techniken der künstlichen Intelligenz sind heute für den Verstand das, was die Bürokratie für die menschliche soziale Interaktion ist.“ Sinnvoller als all die Bemühungen den Menschen zu imitieren, und dazu noch schlecht, sei es, sich zu überlegen, wie sich das Zusammenspiel von Mensch und Maschine verbessern lasse. Winograd verließ die KI-Forschung und wechselte zu „Human/Machine Interaction“.

Egal, mit wie viel Trillionen Wörtern die heutigen Datenbanken der Internetindustrie gefüllt sind und wie viel Prozessorleistung und Speicher den Modellen zur Verfügung stehen, früher oder später wird das Einsatzgebiet der computerbasierten Sprachakrobaten deutlich. Von einem propagierten „Antwortlieferanten für alle Lebenslagen“ bleibt ein „Quatschbot“.

Denn selbst nach rund 80 Jahren „Künstliche-Intelligenz-Forschung“, steht eine Antwort noch immer aus, sagt Brigitte Krenn vom österreichischen Forschungsinstitut für Artificial Intelligence: „Reichen Texte alleine, um die Welt zu verstehen? Egal, wie groß sie sind, und egal, wie komplex die Modelle sind, die die Texte repräsentieren? Wir wissen es nicht!“