Prosodie: Subtiler Tonfall auf gesprächigen Pfaden

13. November 2015
Teilen

Unsere Gehirnareale kommunizieren über ein komplexes Netzwerk aus Verbindungspfaden miteinander, wenn wir subtile Veränderungen im Tonfall eines Sprechers wahrnehmen. Diese Erkenntnis hilft beim Verständnis zwischenmenschlicher Kommunikation und ihrer Störungen.

Nicht nur im Deutschen haben wir einen einfachen Satz gefunden, der beschreibt, dass Sprache mehr ist als Worte. „C’est le ton, qui fait la musique“, sagt man in Frankreich, um darauf zu verweisen, dass es nicht allein auf die tatsächlich gesprochenen Worte ankommt, um unser Gegenüber genau verstehen zu können. Der Tonfall verrät uns oft mehr über Intentionen des Sprechers als die reine semantische Bedeutung des Gesagten.

„Stellen Sie sich doch einfach mal ein leidenschaftlich, ein zögerlich oder ein ironisch gesprochenes „Ja“ in Antwort auf einen Heiratsantrag vor“, schlägt Daniela Sammer vom Max-Planck-Institut für Kognitions- und Neurowissenschaften vor. „Da haben Sie ein anschauliches Beispiel für die wichtige Funktion des Tonfalls.“ Dieser Tonfall wird mit dem Begriff Prosodie umschrieben und bezieht sich auf die Gesamtheit aller sprachlichen Eigenschaften wie Akzent, Intonation oder auch Sprechpausen.

Entscheidende Verbindungspfade

Mit Hilfe der modernen bildgebenden Analyseverfahren ist es den Wissenschaftlern inzwischen gelungen, die vor allem in der linken Hemisphäre stattfindende Entschlüsselung der  Wortlaute gut zu erforschen. Die Ergebnisse zeigen, dass menschliches Verhalten und eben auch Sprache nicht auf einzelne begrenzte Hirnareale reduziert werden kann, sondern vor allem die Verbindungsbahnen zwischen frontalen und temporalen Hirnregionen bei der Sprachverarbeitung entscheidend sind. Solche neuronalen Pfadmodelle der Sprache liefern allerdings keine Anhaltspunkte darüber, wie Prosodie im menschlichen Gehirn verarbeitet wird.

1546_Prosodie_schmuck

Die Probanden hatten zur Aufgabe, anhand der Tonhöhe zwischen einer Frage und einer Aussage zu unterscheiden. Als Vergleich zu dieser Prosodie-Aufgabe sollten sie darüber hinaus den Anfangsbuchstaben zweier ähnlicher Begriffe heraushören. © MPI f. Kognitions- und Neuroswissenschaften/ Sammler

Die Wissenschaftler haben daher eine Studie entwickelt und freiwillige Teilnehmer eingeladen, um dem Geheimnis des Prosodie-Netzwerkes auf die Spur zu kommen. Die Englischen Muttersprachler – Männer und Frauen – bearbeiteten zwei verschiedene Aufgabensets, während ihre Gehirnfunktionen in einem Tomografen für funktionelle Magnetresonanztomografie (fMRT) gemessen wurden. Sie sollten entweder entscheiden, ob Worte als Frage oder Aussage über die Kopfhörer eingesprochen wurden (Prosodie-Aufgabe), oder den Anfangsbuchstaben heraushören (Kontrollaufgabe).

Internes Nachstellen von Kehlkopfbewegungen

Die Ergebnisse zeigen insbesondere in der Prosodie-Aufgabe zwei Gruppen aktiver Hirnareale in der rechten Hemisphäre. Die Aktivierungen im posterioren und anterioren superioren temporalen Sulcus (pSTS und aSTS) können Stationen sein, die den akustischen Tonhöhenverlauf heraushören und in eine wahrgenommene Frage- oder Aussagekontur abstrahieren. Die zweite Gruppe bilden aktive Gebiete im inferioren Frontallappen (IFG) und dem prämotorischen Kortex (PMC) auf der Höhe des Larynxareals, welches die Bewegungen des Kehlkopfes steuert. „Der IFG unterstützt die Bewertung des Tonfalls, während der PMC an dieser Stelle die Vibration der Stimmbänder und somit die Tonhöhe einer Äußerung kontrolliert. Dieser Befund ist sehr interessant, da die Probanden die Stimuli lediglich hörten und nicht selbst sprachen,“ erklärt Sammler.

1546_Gehirn_schmuck

Beim Lösen der Prosodie-Aufgabe sind zwei Gruppen von Gehirngebieten in der rechten Hirnhälfte aktiv (rot). © MPI f. Kognitions- und Neuroswissenschaften/ Sammler

Offenbar stellten die Studienteilnehmer die Kehlkopfbewegungen, die der Sprecher für dieses Wort benutzte, intern nach. Gehörtes wurde also vom Gehirn auch in einen Bewegungsbefehl übersetzt. Dies fördert das Verständnis von Sprache, indem der Hörer in sich selbst die Bewegungsprogramme rekonstruiert, die ein Sprecher für die Produktion des Gehörten selbst genutzt hat. „Bislang vermutete man diesen Aspekt nur für die nichtprosodische Sprachverarbeitung in der linken Hemisphäre. Die vorliegenden Daten könnten aber für einen ähnlichen Mechanismus in der Wahrnehmung des Tonfalls sprechen“, erklärt Sammler.

Das Wahrnehmen des Tonfalls entlang mehrerer Pfade

Darüber hinaus bestimmten die Forscher die Faserbündel der weißen Substanz, die dem Informationsaustausch in diesem Netzwerk zugrunde liegen. Dafür berechneten die Forscher die anatomischen Verbindungen zwischen den aktivierten Gehirnregionen aus den Gehirnbildern der Studienteilnehmer. Die Ergebnisse zeigen klare Evidenz für dorsale und ventrale Pfade in der rechten Hemisphäre: Das ventrale Faserbündel folgt dem mittleren longitudinalen Fasciculus, das dorsale Faserbündel folgt dem Verlauf des Fasciculus arcuatus (AF) beziehungsweise des superioren longitudinalen Fasciculus (SLF). Dieser ist in der linken Hemisphäre bereits als Verbindungsbahn zwischen den Sprachzentren bekannt.

1546_Gehirn2_schmuck

Dorsaler und ventraler Pfad in der rechten Hemisphäre für die Prosodie-Wahrnehmung. © MPI f. Kognitions- und Neuroswissenschaften/ Sammler

Das Gehirn nimmt den Tonfall einer Sprache also entlang mehrerer Pfade wahr. Im Unterschied zu anderen Signalpfaden für Sprache liegen sie vor allem in der rechten Hirnhälfte. „Vermutlich lassen sich diese Pfade flexibel kombinieren und erfüllen so unterschiedliche Aufgaben. Dadurch kann das Gehirn feine Untertöne in der Stimme des Gegenübers erkennen“, fasst Sammler zusammen.

Originalpublikation:

Dorsal and Ventral Pathways for Prosody
Daniela Sammler et al.; Current Biology, doi: 10.1016/j.cub.2015.10.009; 2015

15 Wertungen (4.67 ø)

Die Kommentarfunktion ist nicht mehr aktiv.

4 Kommentare:

Das sehe ich ähnlich. Es wird hier die zentrale Repräsentation der Prosodie als ein Teilaspekt der Sprachwahrnehmung besprochen. Das zentrale Nervensystem dient dabei der vorstellungsmäßigen Bewusstmachung wahrgenommener Dinge und und deren gedanklicher Verarbeitung, nicht jedoch der eigentlichen Wahrnehmung dieser Tatsachen. D. h., das Gehirn vermittelt den kognitiven (vorstellungsmäßigen) Anteil, wohingegen das Sinnesorgan den sensorischen (wahrnehmungsmäßigen) Anteil des Hörerlebnisses vermittelt. Dieses findet noch vor aller weiteren kognitiven (d. h. urteilsmäßigen) Weiterverarbeitung der Wahrnehmung durch den Menschen statt.

#4 |
  0

Interessant, dass alles was man hört sich auch in komplexen Hirnpfaden abbildet und das Gehörte zugleich den eigenen Stimmapparat anregt (Spiegelneurone). Dennoch, am Schluss ist wieder der Kategorienfehler da: “Dadurch kann das Gehirn feine Untertöne in der Stimme des Gegenübers erkennen.” Falsch: Nicht das Gehirn, nur der Mensch kann feine Untertöne hören. Was soll die falsche Identitätstheorie, die nicht besser wird, wenn man sie ständig wiederholt!
Dr. med. Hans Jürgen Scheurle

#3 |
  0

@1
die Spiegelneuronenhypothese ist seit einigen Jahren wenn nicht widerlegt, so doch heftig umstritten. Die Arbeiten von Dinstein et al., 2010 in der Fachzeitschrift “Neuron” legen dies zumindest nahe.
http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2872627/

Hierzu auch der Artikel „A crack in the mirror neuron hypothesis.”
http://news.sciencemag.org/social-sciences/2010/05/crack-mirror-neuron-hypothesis-autism

Wissenschaftlich ist wohl noch nichts entschieden, aber zumindest haben die neueren Arbeiten einige erklärungsbedürftige Schwächen der Spiegelneuronentheorie bezüglich Autismus aufgezeigt.

#2 |
  0

Interessante Befunde! Die alte Motor-Theory von Libermann et al. erfährt durch die Entdeckung der Spiegelneurone in den letzten Jahren ja bereits eine empirisch fundierte Wiederbelebung; nunmehr existiert also eine Befundlage, die dieses Konzept auch für die überwiegend rechtshirnig stattfindende Verarbeitung der Prosodie zu belegen scheint!

#1 |
  0


Copyright © 2017 DocCheck Medical Services GmbH
Sprache:
DocCheck folgen: