Eine Frau sitzt vor einem Computerschirm, im Hintergrund Texte
AFP – CLEMENT MAHOUDEAU
AFP – CLEMENT MAHOUDEAU
Debatte

Wenn KI Studien schreibt

Die künstliche Intelligenz (KI) ChatGPT erschüttert auch das wissenschaftliche Publikationswesen. In Verlagen und unter Fachleuten wird diskutiert, ob KI-Systeme auch als Autoren aufscheinen dürfen – erste Beispiele dafür gibt es bereits.

ChatGPT ist ein Chatbot, also ein textbasiertes Dialogsystem. Die Software wurde mit riesigen Datenmengen aus dem Internet gefüttert und kann Informationen immer neu zusammenstellen. Damit lassen sich Texte erstellen, die von biologisch mental produzierten kaum zu unterscheiden sind – für Schulen und Universitäten führt das zu großen neuen Herausforderungen.

Aber auch die wissenschaftlichen Verlage sind auf neue Weise gefordert. Mindestens vier Studien sind bisher erschienen, in denen die KI als Mitautor angegeben wurde, wie die Fachzeitschrift „Nature“ soeben in einem Artikel berichtet.

Wie Haustiere und fiktive Personen

Auf der Autorenliste stand ChatGPT etwa in einer auf medRxiv publizierten Studie über den Einsatz des Chatbots im Rahmen von medizinischer Ausbildung. Das Team hinter dem Preprint-Server und seiner Schwesterseite bioRxiv diskutiert aktuell darüber, ob das in Ordnung ist.

Mitbegründer Richard Sever, zugleich stellvertretender Verlagsleiter von Spring Harbor Laboratory Press, verweist in dem „Nature“-Artikel auf die rechtliche Verantwortung von Autorinnen und Autoren, die nur Menschen übernehmen können. Dass KI-Chatbots in die Autorenliste rutscht, könne vorkommen – ähnlich wie in der Vergangenheit auch Haustiere und fiktive Personen, so Sever. Dies sei aber eher „ein Kontrollproblem als ein grundsätzliches.“

Auch in einem Editorial zur Verwendung von ChatGPT in der Krankenpflegeausbildung wurde das KI-System als Autor angegeben – die Verantwortlichen sprachen von einem Versehen. „Nature“ hat noch zwei weitere Studien aufgetrieben (hier und hier), die die KI in der Autorenzeile anführen.

Kein Autor, sondern Methode

Magdalena Skipper, Chefredakteurin von „Nature“ in London, meint dass die KI „nicht den Standard für Autorenschaft erfüllt“. Wer Systeme wie ChatGPT beim Erstellen von Artikeln verwende, solle dies dokumentieren – aber nicht in der Autorenzeile, sondern im Methoden- bzw. Danksagungsabschnitt. „Wir würden nicht zulassen, dass eine KI als Autor in einem von uns veröffentlichten Papier aufgeführt wird“, ergänzt Holden Thorp, Chefredakteur der „Science“-Zeitschriftenfamilie. Die Verwendung von KI-generiertem Text ohne ordnungsgemäßes Zitieren könne als Plagiat angesehen werden.

Der britische Wissenschaftsverlag Taylor & Francis in London hat nach Eigenangaben noch keine Einreichungen von Studien mit ChatGPT-Autorenschaft erhalten. Derzeit werde der prinzipielle Umgang mit dem Phänomen diskutiert, sagt Sabina Alam, die Leiterin der Abteilung für Ethik und Integrität des Verlags. Auch sie unterstreicht, dass Autorinnen und Autoren für Gültigkeit und Integrität ihrer Arbeit verantwortlich seien und KI-Systeme in den Danksagungen transparent gemacht werden sollten.

Kann nicht zustimmen und verantworten

ChatGPT könne den Nutzungsbedingungen für eine Veröffentlichung nicht zustimmen: Darauf macht Steinn Sigurdsson aufmerksam, wissenschaftlicher Leiter des Physik-Preprint-Servers ArXiv. Ihm seien aktuell keine arXiv-Artikel bekannt, die ChatGPT als Koautor auflisten. Empfehlungen zum KI-Einsatz für Autorinnen und Autoren würden in Kürze erscheinen.

Derartige Richtlinien gebe es bereits, sagt Matt Hodgkinson, der in Großbritannien zu wissenschaftlicher Integrität forscht. So müssten Koautorinnen und -Autoren einen „bedeutenden wissenschaftlichen Beitrag“ zu einem Artikel leisten. Dies sei bei einer Software denkbar – dass sie aber auch Verantwortung für die Studie übernehmen kann, nicht. Letzteres lasse die Idee einer KI-Koautorenschaft an ihre Grenzen stoßen.