Mund, aus dem eine Schallwelle kommt
Adobe Stock/peterschreiber.media
Adobe Stock/peterschreiber.media
Gehirn

Was Musik und Sprache unterscheidet

Sprache und Musik sind einander akustisch recht ähnlich, aber doch nicht gleich. Wie eine Studie mit A-capella-Liedern nun zeigt, nutzt das Gehirn kleine Unterschiede, um Wörter und Melodien in ein- und derselben Schallwelle auseinanderzuhalten.

Rhythmus, Betonung, Melodie und Klang – Sprache und Musik haben viele Gemeinsamkeiten. Und der Mensch nutzt beides, um zu kommunizieren und sich auszudrücken, manchmal sogar beides gleichzeitig. Beim Gesang verschmelzen Text und Musik zu einem Ganzen bzw. zu einer Schallwelle. Die meisten Zuhörerinnen und Zuhörer können trotzdem ohne viel Mühe Wörter und Melodien auseinanderhalten und erkennen.

Das gelingt, weil sich Regionen des menschlichen Gehirns auf die eine oder andere Ausdrucksform spezialisiert haben, so die These. Sprache wird demnach vor allem links, Musik – insbesondere die Töne – vor allem rechts verarbeitet. Bleibt die Frage: Woran erkennt das Gehirn, welche Hemisphäre zuständig ist? Wahrscheinlich nutzt es bestimmte akustische Eigenheiten für die Einordnung, schreiben die Forscher um Philippe Albouy von der kanadische McGill University in einer Studie, die in der Fachzeitschrift „Science“ erschienen ist.

Verzerrter Rhythmus und Klang

Welche Unterschiede das sind, haben sie mit speziellen Experimenten untersucht, und zwar mit Hilfe von A-capella-Liedern, bei denen die Stimme allein Text und Melodie transportiert. Dafür wurden zehn Sätze mit zehn Melodien zu 100 Liedern kombiniert. Für die Test mit 22 englischsprachigen und 27 französischsprachigen Personen wurden jeweils eine englische und eine französische Variante verwendet. Die Forscher haben die Tonbeispiele nach und nach etwas verändert, um zu untersuchen, wie sich das auf das Erkennen von Text und Melodie auswirkt (Tonbeispiele zum Selbsttest): einmal wurde die zeitliche Struktur immer weiter verfälscht, das andere Mal die Frequenzen.

Schematische Darstellung der Experimente
Robert Zatorre
Schematische Darstellung der Experimente

Die Idee dahinter: Tempo und Rhythmus spielen beim Sprachverständnis eine wichtige Rolle. So kann sich sogar die Bedeutung ändern, je nachdem, ob eine Silbe lang oder kurz ausgesprochen wird (deutsches Beispiel: „modern“ hat eine andere Bedeutung – je nachdem, ob das „o“ kurz oder lang ist). Änderungen im Frequenzspektrum – und somit bei den Tönen und der Melodie – sind hingegen für das musikalische Verständnis wichtiger.

Optimierte Verarbeitung

Die Experimente bestätigten diese Annahme: Wenn die zeitliche Struktur der Lieder verzerrt war, hatten die Teilnehmerinnen und Teilnehmer Schwierigkeiten, sprachliche Inhalte zu erkennen und zu unterscheiden; verzerrte Klangfrequenzen wirkten sich hingegen beim Erkennen der Melodien aus. Die Reaktionen auf die akustischen Veränderungen spiegelten sich auch in Gehirnbildern: Bei den eher sprachlichen Aspekten war die linke Hälfte aktiver, bei den musikalischen die rechte. Diese Spezialisierung optimiere die parallele Verarbeitung von Sprache und Musik, so die Forscher. Ob sich diese auch auf andere, ganz anders aufgebaute Sprachen wie etwa Chinesisch mit seinen variablen Tonhöhen übertragen lässt, bleibe aber offen.

Generell seien die Grenzen zwischen sprachlicher und musikalischer Verarbeitung wohl nicht ganz so scharf zu ziehen, wie die Arbeit nahelegt, schreibt Daniela Sammler vom Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig in einem Begleitkommentar zur Studie. So äußern sich manche sprachlichen Nuancen auch in der Melodie und im Tonfall, auf der anderen Seite sind selbst kleine rhythmische Änderungen in der Musik mitunter entscheidend, z.B. wenn ein Orchester gemeinsam den Takt halten möchte. Insofern gebe es wahrscheinlich doch auch ein paar Überschneidungen bei der Verarbeitung von Musik und Sprache.