Computer belauscht Gehirne

Neuroprothesen, die Hirnwellen direkt in Sprache übersetzen, könnten komplett gelähmten Menschen in Zukunft helfen. Forscher melden nun Fortschritte: Erstmals konnte ein Computer einen Dialog nur aufgrund der Hirnsignale verstehen.

Erst kürzlich hat Elon Musk mit seiner Idee einer Schnittstelle zwischen Hirn und Computer für viel Kritik in der Fachwelt gesorgt. Aber solche Verbindungen sind tatsächlich längst mehr als futuristische Fantasien eines Unternehmers. Seit einigen Jahren bemühen sich Forscher auf der ganzen Welt darum, eine direkte Kommunikation zwischen menschlichem Gehirn und Maschine zu ermöglichen. Dabei wurden schon einige Fortschritte gemacht, die im Detail allerdings etwas bescheidener ausfallen als Musks Ankündigungen klingen. So lassen sich schon heute allein mit der Kraft der Gedanken ein Cursor, externe Gerätschaften oder sogar ganze Rollstühle steuern.

Aber auch bei komplexeren Denkvorgängen, etwa beim Sprechen bzw. beim Zuhören ist Forschern mittlerweile schon einiges gelungen. Erst heuer berichtete ein Team davon, dass es dem Hirn beim Hören von Sprache wiederum „zugehört“ hat. Ein Programm lernte, die elektrischen Erregungen im Gehirn zu interpretieren und in der Folge daraus einzelne Wörter zu erzeugen.

Gehirnsignale übersetzt

Ein ähnliches selbstlernendes Programm verwendeten auch die Forscher um David A. Moses vom Center for Integrative Neuroscience der University of California, San Francisco, für ihre soeben erschienene Arbeit. Dieses Mal ging es allerdings darum, die Gehirnaktivität von zwei Menschen im Gespräch – also einerseits beim Sprechen, andererseits beim Zuhören – im Gesamtpaket zu interpretieren und in Echtzeit ein Transkript des Dialogs zu erstellen.

Wie bei solchen Studien häufig der Fall, waren die Probanden Epilepsiepatienten. Wegen ihrer Erkrankung hatten sie Elektroden im Gehirn. Damit lässt sich auch die Gehirnaktivität auslesen. Jeweils zwei der drei Testpersonen führten einen einfachen Frage-Antwort-Dialog, z.B. „Auf einer Skala von eins bis zehn, wie fühlen Sie sich?“ (Antwort: „Vier“). Die aufgezeichneten Daten dienten als Trainingsmaterial für das Computerprogramm.

Video zum Versuchsaufbau:

Am Ende war das Programm in der Lage, nur anhand der Gehirnsignale zu unterscheiden, ob die Probanden gerade sprachen oder zuhörten. Außerdem konnte es mit einer hohen Treffsicherheit einschätzen, was gesagt bzw. gehört wurde. War die Frage bekannt, ließ sich die Antwort noch besser aus den Gehirnwellen ablesen. Die Treffsicherheit betrug dann sogar 76 Prozent. Bei den Fragen lag das Programm immerhin in 61 Prozent der Fälle richtig.

Damit sind die Forscher einer Echtzeitübersetzung von Gehirnströmen in Sprache wieder ein Stückchen näher gekommen. Damit sich ein solches System auch von Menschen, die sich weder bewegen noch sprechen können, bedienen lässt, müsste man auch reine Gedanken bzw. im Stillen Gesprochenes auslesen können. Laut den Forschern muss man die Methode dafür vermutlich noch etwas modifizieren.

Eva Obermüller, science.ORF.at

Mehr um Thema