Was das Gehirn aus Tonhöhen liest: Bedeutung jenseits der Worte
Woher wissen wir, dass ein Satz von einer Frau gesprochen wurde? Woher wissen wir, dass Sie uns eine Frage gestellt hat? Forschende der Universität Zürich und des NCCR Evolving Language haben die komplexen Prozesse in unserem Gehirn beschrieben, welche es uns ermöglichen Informationen, die in der Tonlage enthaltenen sind, zu verstehen.
Vom NCCR Evolving Language
Wenn wir jemandem zuhören, hören wir mehr als nur seine Worte! Die Tonlage der Stimme verrät uns wichtige sprachbegleitende Informationen. Diese liefern uns Hinweise über die Identität der sprechenden Person, wie z.B. Alter und Geschlecht, aber auch über die Bedeutung eines Satzes, sodass wir beispielsweise zwischen Fragen und Aussagen unterscheiden können.
Damit wir verstehen können, was jemand sagt, wandelt unser Gehirn die gehörten Informationen (d.h. Wörter) in abstrakte und unveränderliche Darstellungen um, die mit unserem Begriffssystem in Verbindung stehen. Wie aber funktioniert das bei der Tonlage? In einer neuen Studie, die in Communications Biology veröffentlicht wurde, untersuchte eine Gruppe von Forschenden der Universität Zürich und des NCCR Evolving Language, wie das Gehirn diese wichtigen Informationen registriert. Mithilfe der Magnetenzephalographie (MEG) konnten sie die neuronalen Bahnen, die an der Verarbeitung der Tonlage beteiligt sind, genau lokalisieren. Zu ihrer Überraschung waren diese Bahnen aber nicht dieselben wie jene, welche im Gehirn für die übrigen gehörten Informationen verwendet werden!
Signale mit variierender Tonlage
Um zu untersuchen, wie Tonlagen im Gehirn verarbeitet werden, mussten die Forschenden akustische Signale erzeugen, die sich ausschliesslich durch Variationen dieses sprachbegleitenden Merkmals unterschieden. Dazu erzeugten sie mehrere künstliche Reize, die nicht von einer echten Person gesprochen wurden, und passten die Tonlage und Dynamik des akustischen Signals an. „Dadurch konnten wir die klanglichen Parameter sorgfältig kontrollieren, um mögliche Störfaktoren auszuschliessen“, sagt Chantal Oderbolz, Erstautorin der Studie. Die variierende Tonlage des Signals stand für das Geschlecht des fiktiven Sprechenden, und die Dynamik des Signals dafür, ob es als Frage oder als Aussage interpretiert wird.
Die künstlich erzeugten Sprachsignale wurden 34 Teilnehmenden vorgespielt. Nach jedem einzelnen Reiz sollten sie angeben, ob sie ihn als Frage oder als Aussage wahrnahmen. Gleichzeitig wurde ihre Gehirnaktivität mit einem bildgebenden Verfahren aufgezeichnet, das neuromagnetische Signale misst.
Um festzustellen was genau im Gehirn passiert, wenn wir verschiedene Tonlagen hören, analysierten die Forschenden anschliessend die aufgezeichneten Daten mit computergestützter Methoden. “Mithilfe der Representational Similarity Analysis (RSA) erhielten wir aus unseren Daten (Dis-)Similaritätskarten. Diese Karten zeigen auf, wie ähnlich oder unterschiedlich die einzelnen Reize zueinander sind. Anschließend verglichen wir sie mit theoretischen Modellen, die vorhersagen, wie solche Karten aussehen würden, wenn das Gehirn die Reize entweder in klanglicher Detailtiefe oder lediglich nach ihrem Satztyp verarbeitet”, erklärt Oderbolz.
Ein Pfad auf der rechten Seite des Gehirns
Die Auswertungen der Hirnaktivität zeigten, dass die primären Hörareale der rechten Gehirnhälfte in den frühen Verarbeitungsstufen des akustischen Signals besonders stark auf die klanglichen Details der Reize reagierten. „Das bedeutet, dass das Gehirn zu diesem Zeitpunkt Informationen darüber verarbeitet, ob der Sprecher eine Frau oder ein Mann war und wie eindeutig er den Satztyp signalisiert hat“, erklärt Chantal Oderbolz.
In späteren Verarbeitungsstufen, die in rechten vorderen nicht-auditiven Hirnregionen stattfinden, konzentriert sich das Gehirn dagegen ausschliesslich auf die abstrakte Kategorie des Satztyps (Frage oder Aussage). „Dies zeigt, dass während der Verarbeitung der Tonlage eine Transformation von einer klanglichen zu einer abstrakten Darstellung stattfindet“, ergänzt die Forscherin. Je präziser diese Transformation geschieht, desto korrekter konnten die Teilnehmenden die Reize einordnen.
Nach dieser Transformation zeigen die Daten ausserdem einen Informationsaustausch zwischen der rechten und der linken Gehirnhälfte. Das könnte darauf hindeuten, dass die endgültigen Darstellungen, die die Klassifizierung des Signals ermöglichen, zwischen beiden Hemisphären übertragen werden.
Ein hierarchischer Prozess
Die Ergebnisse zeigen, dass die Tonlage vom Gehirn hierarchisch verarbeitet wird. „Es baut Bedeutung Schritt für Schritt auf, von einfach zu komplex, und wandelt Geräusche in sinnvolle Einheiten um”, sagt Oderbolz. Eine solche Organisationsweise ist aus der Sprachverarbeitung, aber auch aus dem Sehen und der Motorik bereits gut bekannt.
Nun wurde diese Organisationsweise auch auf die Verarbeitung der Tonlage ausgeweitet. Für die Forscherin untermauert dies die Theorie, dass es sich hierbei um ein allgemeines Organisationsprinzip des Gehirns handeln könnte. „Es wurde auch bei anderen Menschenaffen beobachtet, was interessante evolutionäre Rückschlüsse zulässt“ fügt sie hinzu.
In Zukunft möchten die Forschenden ihre Analyse in einer weniger kontrollierten Umgebung weiterführen. „Sprachwahrnehmung findet nicht isoliert statt: Menschen sprechen in der Regel in ganzen Sätzen, die sehr reich an Informationen und Kontext sind“, sagt Oderbolz. „Ein zukünftiger Forschungsansatz würde berücksichtigen, wie die Tonlage in einer natürlicheren Umgebung verarbeitet wird und welche Konsequenzen dies für die Wahrnehmung und das Verhalten hat“, ergänzt Seniorautor Martin Meyer. In seinem neuen Vivid Sound Lab wird es möglich sein, solche Studien, die alle Arten des Sprachverständnisses und der Sprachproduktion in einer natürlichen Umgebung untersuchen, durchzuführen.
Die Verwendung der Magnetenzephalographie (MEG)
Für die vorliegende Studie verwendeten die Forschenden ein Magnetenzephalographie (MEG)-Gerät der Universität Genf (Human Neuroscience Platform des Campus Biotech). Es ist das einzige MEG Gerät, das Forschenden in der Schweiz bis heute zur Verfügung steht.
MEG-Geräte ermöglicht die Messung der Gehirnaktivität, mit einem hohen zeitlichen Auflösung. Dabei werden die sehr kleinen Magnetfelder aufgezeichnet, die durch die elektrische Aktivität der Neuronen erzeugt werden. „Aus diesem Grund eignet sich die MEG hervorragend für die Untersuchung der Sprachwahrnehmung, da es sich hierbei um einen sehr schnellen und dynamischen Prozess handelt, an dem viele verschiedene Regionen des Gehirns beteiligt sind“, sagt Chantal Oderbolz.
Obwohl diese Technik für die zeitliche Analyse hervorragend geeignet ist, ist sie für das Erhalten von räumlichen Informationen etwas weniger geeignet. Daher kombinierten die Forschenden ihre MEG-Daten mit einer Magnetresonanztomographie (MRT), um noch präziser bestimmen zu können, woher die Signale aus dem Gehirn genau stammen.
„Obwohl diese Technik viele Vorteile hat, gibt es zahlreiche Faktoren, die dazu führen können, dass Teilnehmende für eine Untersuchung mit dem MEG-Gerät nicht geeignet sind“, erklärt Oderbolz. Das Signal reagiert nämlich empfindlich auf alles Magnetische oder Metallische, sodass Menschen mit implantierten Geräten und Zahnspangen oder Tätowierungen und sogar frisch gefärbten Haaren nicht an der Studie teilnehmen konnten. „Die Liste ist lang, und es war schwierig, Personen zu finden, die alle Kriterien erfüllten“, fügt die Forscherin hinzu. „Aber die Mühe hat sich definitiv gelohnt, denn wir verfügen nun über einen grossartigen MEG-Datensatz und wirklich coole Ergebnisse, die unser Verständnis davon, wie Menschen Sprache in Bedeutung umwandeln, erweitern“, schliesst sie.
