Spiegelbild der Sprache - Neurokognition von Musik

Es war 1958, als ein Team von Anthropologen das Volk der Anang Ibobo im Herzen Afrikas besuchte. Und die Forscherinnen und Forscher waren verblüfft: Schon Dreijährige konnten allein oder gruppenweise hunderte verschiedene Lieder singen. Selbstverständlich brillierten die Knirpse auch auf diversen Trommeln und im Tanz. Musik und Sprache, das vermochte bei den Anang Ibobo keiner zu trennen.

Es war 1933, als Maurice Ravel zuerst fehlerhaft zu buchstabieren begann. Dann konnte er nicht mehr lesen und schließlich nicht einmal mehr seinen Namen schreiben. Obwohl eine neue Oper, wie er sagte, "in seinem Kopf" herum schwirrte, brachte er kein Werk mehr zustande. Niemand hat je herausgefunden, welche Hirnregionen des Komponisten zerstört waren.

Nachdem im MPI für Kognitions- und Neurowissenschaften die neuronale Sprachverarbeitung in extenso aufgeklärt wurde, erkundet die von Angela D. Friederici1 gegründete Arbeitsgruppe "Neurokognition von Musik" seit 1998 das Pendant. Denn Musik und Sprache sind beides Mittel der Kommunikation. Beide hängen ab von hoch organisierten Variationen in Tonhöhen, Betonung und Rhythmen. Beide sind reich an "Harmonien" - jenen Obertönen einer Grundfrequenz, die Resonanz und Reinheit verleihen. Beide besitzen komplexe Zeichensysteme, die Botschaften verschlüsseln und weitergeben. Musik hat demnach wie die Sprache ein Regelwerk der Grammatik, der Syntax. In der Musik der westlichen Welt etwa folgt auf den Grundton, die Tonika, oft eine Dominante vor einer weiteren Tonika. Zuweilen schiebt sich vor die Dominante eine Subdominante - aber nie dahinter. Einige Musiktheoretiker sprechen gar von einem musikalischen "Ur-Satz". Eine Notenfolge, die nach dem Zufallsprinzip auf einem Klavier geklimpert wird, erzeugt Töne, die allenfalls das Attribut Geräusch verdienen. Musik anderer Kulturen unterscheidet sich in ihrer Harmonik lediglich durch die Art des Regelwerks, aber nie dadurch, dass es fehlen würde.

Indizien zuhauf. Doch wenn Musik und Sprache wirklich Geschwister im Geiste sind, müsste sich das in den beteiligten Netzwerken im Gehirn widerspiegeln. Um diesen auf die Spur zu kommen, bekamen erwachsene Testpersonen im Leipziger MPI Sequenzen aus fünf Akkorden zu hören, die zu einem Schlussakkord führen und im Grunde einem gesprochenen Satz entsprechen. Doch gelegentlich störten unerwartete Akkorde die musikalische Harmonie der Sequenzen - manchmal sehr deutlich, wenn sie etwa von einem anderen Instrument als zuvor gespielt wurden. Zuweilen aber mischten die Forscherinnen und Forscher um Stefan Koelsch2 so genannte Neapolitanische Akkorde ein, die nur auf das geübte Ohr eines Profimusikers im Zusammenhang der präsentierten Sequenzen befremdlich wirken. Die Dissonanzen sollten vor allem jene Hirngebiete aktivieren, die mit einer möglichen "Grammatik" der Musik zu tun haben. Bei den Experimenten wurden die Gehirnaktivitäten der Testpersonen mit der funktionellen Magnetresonanz-Tomographie oder der Magnetenzephalograhie beobachtet. Die Ergebnisse sind überraschend: Fast alle Hirnregionen, die Sprache prozessieren, sind auch bei der Musikverarbeitung aktiv. Die Forscherinnen und Forscher haben es fast mit einem exakten Spiegelbild zu tun. Vor allem das dem Broca-Areal entsprechende Gebiet leuchtete grell-bunt auf, daneben auch das rechtshomologe Wernicke-Areal im Schläfenlappen und etliche andere Bereiche, die mit Sprache in Verbindung stehen. Der Wohlklang eines Mozarts oder die Beats der Techno-Jünger rufen auch die klassische Sprachmaschinerie der linken Hirnhälfte auf den Plan - allerdings nicht so stark wie auf der anderen Seite. Die liebgewonnene Spaltung "Sprache links, Musik rechts" scheint nicht mehr zu gelten. Nach den Ergebnissen des Teams um Stefan Koelsch2 laufen Musik - und Sprachverarbeitung im Gehirn in den denselben Schaltkreisen - nur mit unterschiedlichen Schwerpunkten. Weitere Studien untermauern die These. Die Leipziger Wissenschaftlerinnen und Wissenschaftler spielten dieselben mehr oder weniger "gestörten" Akkordfolgen etlichen Testpersonen vor, während ein Elektroenzephalograph (EEG) ihre Hirnströme aufzeichnete. Tatsächlich reagierte vor allem das rechte Broca-Areal schon nach 180 bis 200 Millisekunden auf Verletzungen der musikalischen Grammatik mit einem typischen Ausschlag, kurz ERAN (für early right anterior negativity). Dieses Bild entspricht auffallend der so genannten ELAN, mit der das Gehirn auf Verstöße der sprachlichen Grammatik "protestiert".

Neben der Struktur von Musik beschäftigt sich das MPI-Team natürlich auch mit deren Inhalten. Das Gehirn muss Bedeutungen musikalischer Botschaften filtern und interpretieren. Das könnte der Entschlüsselung von Wortinhalten bei der Sprache entsprechen, weshalb das MPI-Team von einer "semantischen Dimension" der Musik spricht. Die ist noch ungleich schwerer zu untersuchen als die Grammatik, weil Musik noch mehr als Sprache die Emotionen anspricht. Kaum ein Gedicht, kaum ein Gemälde mag das Gemüt eines Menschen unmittelbar zu rühren wie das Schmeicheln oder Klagen eines Nocturne. Andere schmelzen bei einem Liebeslied der Beatles dahin. Auch solche emotionale Phänomene im Gehirn verfolgen die MPI-Wissenschaftlerinnen und -Wissenschaftler. Dafür muss auch geklärt werden, welche Merkmale eigentlich eine musikalische Semantik vermitteln. In ersten vermeintlich simplen Versuchen ging das MPI-Team davon aus, dass schon der Bekanntheitsgrad einer Melodie semantisch bedeutsam ist. Verfügt das menschliche Gehirn über ein Lexikon musikalischer Phrasen? Ein Experiment mit drei "Versuchsmelodien" sollte dies bestätigen. Zum einen wurden den Testpersonen bekannte klassische Themen vorgespielt, die unverändert bis zu Ende durchliefen. Zum zweiten bekamen sie eine beliebte Melodie zu hören, die aber ohne Bruch in eine andere überging - eine Art zusammengemischtes Mini-Potpourri. Zum dritten ging eine bekannte klassische Phrase in eine meist völlig unbekannte Melodie über - das ist sozusagen eine musikalisch-semantische Verletzung. Darauf antwortet das Gehirn nach etwa 400 bis 550 Millisekunden mit einem Signal im EEG im Stirnhirn, das über den Inhalt des Gehörten zu "grübeln" scheint. Auch dieser Verlauf im EEG-Bild erinnert an Vorgänge der Sprachverarbeitung.

Die Wissenschaftler haben ihre Experimente mit "sauberen" und "unsauberen" Akkordsequenzen auch auf Kinder ausgedehnt. Die Ergebnisse: Auch die Gehirne der Mädchen und Jungen zeigen bereits eine Verarbeitung musikalischer Syntax. Und diese entwickelt sich möglicherweise schneller als die sprachliche. Erste Versuche weisen bei 2.5-jährigen eine Aktivierung nach, die der ERAN stark ähnelt. Zweifellos sind urmusikalische Elemente wie Melodie, Rhythmus und Akzent auch fundamentale Informationen für Sprachproduktion und -verständnis. Babys nutzen die musikalischen Merkmale der Sprache, um Ordnung im Sprach-Brei zu schaffen, der auf sie einströmt. Dafür sprechen Ergebnisse der MPI-Forschergruppe für Prosodie. Musikalisch, so scheint es, sind alle Menschen - von Geburt an. Sonst könnten sie keine Sprache lernen.

1 Angela D. Friederici leitet die Abteilung Neuropsychologie am Leipziger Max-Planck-Institut für Kognitions- und Neurowissenschaften und ist derzeit Geschäftsführende Direktorin des Instituts.

2 Der Leiter der ehemaligen Max-Planck-Forschungsgruppe "Neurokognition der Musik" Stefan Koelsch ist seit 2010 Professor für Biologische Psychologie und Musikpsychologie im Exzellenzcluster „Languages of Emotion“ der Freien Universität Berlin. Hier erforscht der Wissenschaftler die neuronalen Grundlagen von Freude, Trauer oder Furcht durch fMRT und weitere Methoden.

Weitere interessante Beiträge

Zur Redakteursansicht