Mit gefälschter Welt umgehen lernen

Computerstimmen, die vorgeben, ein Mensch zu sein, und Videos, die etwas zeigen, das so nicht passiert ist. Das ist bereits Realität. Eine Roboterpsychologin erklärt, welche Auswirkungen das auf die Menschen hat und wie man damit umgehen sollte.

Mit Google Duplex hat der IT-Riese im Mai dieses Jahres eine Künstliche Intelligenz (KI) vorgestellt, die für einen Nutzer Termine beim Frisör machen oder einen Tisch im Restaurant reservieren kann. Dabei klingt der Sprachassistent auf der Aufnahme von Google erstaunlich menschlich. „Dieser Assistent wirkt deshalb so realistisch, weil er zum Beispiel Füllwörter am Telefon einfügt – also Ahs und Ähms – und sich sogar an regionale Dialekte anpassen kann“, erklärt die Roboterpsychologin Martina Mara von der Johannes Kepler Universität in Linz.

Die Roboterpsychologin Martina Mara in Alpbach

Hans Leitner, ORF

Die Roboterpsychologin Martina Mara in Alpbach

KI erheitert und schockiert

Während die Testanrufe und die Reaktionen der KI bei der Entwicklerkonferenz im Mai für Erheiterung sorgten, stieß das Video in den Sozialen Medien auf Skepsis und Kritik. Vor allem wurde kritisiert, dass es für die Mitarbeiterin im Frisörsalon bzw. im Restaurant nicht erkennbar war, dass ein Roboter den Termin vereinbaren möchte. Die Reaktion ist für die Psychologin Mara nicht überraschend. „Die Vermischung zwischen Mensch und Maschine oder zum Beispiel auch simulierte Emotionalität bei Chatbots, wird von vielen Menschen als angriffig und Gefährdung wahrgenommen.“ Das stellte die Forscherin auch in eigenen Untersuchungen immer wieder fest.

Noch ist der Assistent nicht erwerbbar. In einem neueren Promovideo (Video unten) zeigt sich aber, dass Google auf die Kritik der Nutzer reagiert hat. Hier gibt sich die Künstliche Intelligenz zu Beginn des Anrufs als solche zu erkennen. Für Mara eine Notwendigkeit: „Da trete ich ganz klar für ein Recht auf Transparenz ein.“

Stimmen kopieren und Videos fälschen

Das Programm von Google ist aber nur ein Beispiel, wo Maschinen Menschen beinah perfekt kopieren. So arbeiten Entwickler etwa an Programmen, die Stimmen von beliebigen Personen imitieren können. 2016 stellte etwa Adobe mit VoCo eine KI vor, die eine Stimme anhand von Tonbeispielen kopieren und Tonaufnahmen wie bei Photoshop nachträglich verändern kann. Erhältlich ist das Programm nicht.

Technologiegespräche Alpbach

Von 23. bis 25. August finden im Rahmen des Europäischen Forums Alpbach die Technologiegespräche statt, organisiert vom Austrian Institute of Technology (AIT) und der Ö1-Wissenschaftsredaktion. Martina Mara spricht am 24.8. zum Thema „Die Zukunft ist digital – wie human wird sie sein?“.

Links

Ö1-Sendungshinweis

Diesem Thema widmete sich auch das Mittagsjournal am 24.8.

Abgesehen davon gibt es bereits Anwendungen, mit denen man Videos verändern kann. Etwa indem man das Gesicht von einem Schauspieler auf das einer anderen Person schneidet - um ein harmloses Beispiel zu nennen. Im Fachjargon nennt man dieses Fälschen von Videos Deepfake. Möglich machen es etwa Anwendungen wie Deepfakes FakeApp. Zwar erkennt man bei den meisten Beispielen, die im Netz kursieren, dass die Videos gefälscht sind.

Was möglich ist, zeigten Anfang des Jahres allerdings das Medienunternehmen BuzzFeed und der US-amerikanischen Schauspieler und Regisseur Jordan Peele. In einem gefälschten Video lassen sie den ehemaligen US-Präsidenten Barack Obama sprechen. Der beschimpft den aktuellen Amtsinhaber sinngemäß als Vollidioten. „Durch diese neuen KIs kommt eine ganz neue Ebene in diese Desinformationsdebatte hinein. Denn natürlich können dadurch Aussagen von Personen öffentlichen Interesses verfälscht werden“, so Mara.

„Menschen müssen kritischer werden“

Menschen müssten deshalb schnell lernen, kritischer mit Videos und Tonaufnahmen im Internet umzugehen. „Wichtig ist, dass sie sich selbst die Frage stellen, könnte es sein, dass da jetzt ein Fake dahinter steckt, und dann auf geeignete Programme zurückgreifen, die überprüfen können, besser als wir Menschen selbst, ob es sich um einen Fake handelt oder nicht.“

Erste Hilfsmittel findet man bereits im Netz. Aber auch hier versuchen Entwickler, immer bessere Programme zu erstellen, mit denen man gefälschte Videos und Tonbeispiele als solche erkennen kann, erklärt Mara. „Wir sehen in vielen technischen Bereichen ein Kopf-an-Kopf-Rennen von jenen Entwicklern, die eine bestimmte Anwendung bauen - wie etwa, um Fakes zu generieren. Und auf der anderen Seite von jenen, die mit den gleichen Methoden an Aufdeckungsarbeiten arbeiten. Das ist sicher auch hier der Fall.“

Ruth Hutsteiner aus Alpbach, Ö1-Wissenschaft

Mehr zu den Technologiegesprächen: