Wie das Gehirn Rhythmen bei der Sprachverarbeitung nutzt

Wissenschaftler am MPI für Kognitions- und Neurowissenschaften entwickeln Modell der neuronalen Sprachverarbeitung, das neben den verschiedenen auditiven Komponenten von Sprache ...

18. November 2010

Meist scheint es wie von selbst zu gehen: Kaum zu Ende gehört, ist der der Sinn eines Satzes auch schon verstanden. Wie es dem Hirn gelingt, in diesem Tempo einzelne Worte und Sinneinheiten aus dem Lautstrom zu filtern, ist in großen Teilen noch unklar. Sonja Kotz und Michael Schwartze untersuchen am Leipziger Max-Planck-Institut für Kognitions- und Neurowissenschaften, welche Rolle dabei zeitliche Parameter wie der Sprechrhythmus spielen. Die beiden Forscher haben dafür ein neues Modell der Sprachverarbeitung im Gehirn entwickelt, das neben den verschiedenen auditiven Komponenten von Sprache auch den Zeitfaktor berücksichtigt. Darauf aufbauend könnte in Zukunft etwa untersucht werden, wie sich angeborene oder erworbene Sprachfehler auf die Sprachverarbeitung auswirken und ob die neuronale Verarbeitung von Musik den gleichen Strukturen folgt wie die der Sprache. [Trends in Cognitive Sciences; September 2010].
   
Wer eine neue Sprache lernt, braucht meist einige Zeit, um ein „Gefühl“ für deren Eigenheiten zu bekommen. Besonders bei schnellen Sprechern kann es anfangs sogar schwer fallen, einzelne Wörter herauszuhören. „Das liegt daran, dass sich das Gehirn an fremde Sprechrhythmen erst gewöhnen muss“, erklärt Sonja Kotz, die am Leipziger MPI für Kognitions- und Neurowissenschaften die Forschungsgruppe „Neurokognition von Rhythmus in der Kommunikation“ leitet. In der Muttersprache dagegen wird das Gehörte meist ohne große Mühe und annähernd in Echtzeit verarbeitet. Die zahllosen einströmenden Sinnesreize können, wie sich inzwischen gezeigt hat, nur deshalb so schnell ausgewertet werden, weil das Gehirn sie oft bereits erwartet. „Das Gehirn ist sehr gut darin, in Umweltreizen Muster zu erkennen“, erläutert Kotz. „Aus diesen errechnet es eine grobe Erwartungshaltung über die Ereignisse der nahen Zukunft.“ Bisher wurde davon ausgegangen, dass dafür im Bereich der Sprache vor allem semantische und grammatische Information genutzt werden, also Bedeutungselemente und die Regeln des Satzbaus.

Zeitliche Aspekte wie der Sprechrhythmus wurden dagegen in der Forschung bislang weitgehend außer Acht gelassen. „Es gibt aber vermutlich ein neuronales Netzwerk, das permanent nur damit beschäftigt ist, Informationen über Dauer, Rhythmus, Tempo und Betonung der Silben auszuwerten, um zeitliche Regelmäßigkeiten im Strom der Laute zu erkennen“, erklärt die Forscherin. Vor allem während des Spracherwerbs könne dieses Netzwerk grundlegende Routinen der Sprache im Gehirn abspeichern, sodass die Sprachverarbeitung später effizienter funktioniert. Zum größten Teil finden diese Prozesse, so die Forscher, in Bereichen in und unterhalb der Großhirnrinde statt. Beteiligt sind aber auch motorische Areale und primitivere Hirnregionen wie das Kleinhirn und die Basalganglien. „Das weist auf weit zurückliegende Entwicklungsstufen hin“, führt Sonja Kotz aus. „Die Evolution von Sprache als komplexe motorische Handlung wäre nicht möglich gewesen ohne die Ausprägung von Hirnarealen, welche die Fähigkeit besitzen, Verhalten zeitlich zu strukturieren.“ Die Wissenschaftler vermuten, dass sich das Motorsystem in und unterhalb der Großhirnrinde neu konfiguriert hat, um den hohen Anforderungen der kommunikativen und kognitiven Fähigkeiten des Homo sapiens gerecht zu werden.

Originalveröffentlichung:
Sonja A. Kotz und Michael Schwartze:
Cortical speech processing unplugged: a timely subcortico-cortical framework.
Trends in Cognitive Sciences 14, September 2010.

Zur Redakteursansicht