Samstag, 25. Oktober 2014MESZ06:14 Uhr

Wissenschaft und Technik

Drogen"Kommt ein guter Rauch"
Vier E-Shishas

Eine E-Shisha ist wesentlich kleiner als die orientalische Wasserpfeife und ähnelt in der Funktion einer elektronischen Zigarette. Die meist sehr bunten elektronischen Shishas machen Jugendliche glücklich − Eltern und Suchtexperten sind hingegen besorgt.Mehr

ZähneUltraschall statt Strahlen
Ein Röntgenbild von einem Gebiss eines 28-jährigen Mannes hängt am 31.03.2014 in einer Zahnarztpraxis in Hannover (Niedersachsen).

Zahnärzte und Kieferorthopäden lassen Röntgenaufnahmen vom Kopf machen, um optimal zu behandeln. Doch Röntgen belastet den Körper mit Strahlung. Eine junge Rostocker Zahnärztin hat deshalb eine relativ undenkliche und vielversprechende Alternative untersucht: Ultraschall.Mehr

WeltgesundheitsorganisationKein Kinderspiel
Eine schwangere Frau hält ihren Bauch.

Bei bis zu 30 Prozent aller Geburten kommt es zu Komplikationen. Häufig bewegt sich das Baby im Geburtskanal nicht von der Stelle. Ein Kfz-Mechaniker hat ein Hilfsmittel erfunden, dass die Geburten erleichtern könnte.Mehr

weitere Beiträge

Radiofeuilleton - Wissenschaft und Technik / Archiv | Beitrag vom 02.12.2012

Hören in Wellen

Wie unser Gehirn gesprochene Sprache verarbeitet

Von Annegret Faber

Wo kommt das her, was sie gerade hört?
Wo kommt das her, was sie gerade hört? (AP)

Wie das Hören in unserem Gehirn funktioniert, ist bisher noch weitgehend ein Rätsel. Zwei Leipziger Psychologen haben nun herausgefunden, dass sich unser Gehirn mit den Schwingungen der Sprache, die wir hören, koppelt.

Molly Henry und Dr. Jonas Obleser beraten, welcher Ton die Ergebnisse ihrer Studie am besten hörbar machen kann. Eine schwere Aufgabe, denn was die beiden Leipziger Forscher herausgefunden haben, ist weder zu hören noch zu sehen. Aber es existiert und passiert in jeder Sekunde mehrmals. Und es ist ein entscheidender Baustein, um zu begreifen, wie wir hören.

"Wir wissen schon sehr viel darüber, wie Schallwellen im Innenohr und im Hörnerv kodiert werden. Aber was in der Hirnrinde eigentlich mit der auditiven Verarbeitung passiert, das haben wir noch nicht kapiert. Das ist definitiv wesentlich komplexer als beim Sehen."

Denn wir sehen zweidimensional, erklärt Jonas Obleser. Schon auf der Netzhaut ist klar, was wo im Raum ist. Das Gehör hingegen ist nur eindimensional.

"Schall ist nichts anderes als Druckschwankungen, die an unserem Trommelfell ankommen, und das ist einfach so ein Signal, wie wenn Sie mit der Kreide an die Tafel malen. Es ist ein eindimensionales Signal, aus dem dann alles Mögliche berechnet werden muss."

Wo kommt das, was ich gerade höre, her? Wer spricht? Welchen Ton höre ich und welchen blende ich aus, weil er unwichtig ist?

"Wir treten zu einer Gruppe von Menschen und erst mal verstehen wir gar nichts und eine Minute später, ohne dass wir es merken, haben wir das Gefühl, nur noch dem einen Sprecher, der uns gegenüber steht, zu hören, und der Rest ist nur noch ein Gemurmel.

Akustisch hat sich ja gar nichts verändert. Aber unser Gehirn hat es geschafft zu synchronisieren, zu koppeln, mit dem auditiven Input, den dieser eine Sprecher da gegenüber erzeugt."

Unser Gehirn hat sich gekoppelt. Diese Kopplung könnte möglich sein, weil das Gehirn des Sprechers ähnlich tickt wie das des Zuhörers. Anders gesagt, wir hören Sprache in einem bestimmten Rhythmus.

Alles, was diesem Rhythmus ähnelt, nehmen wir besser wahr und es fällt uns leichter zuzuhören. Wir werden durch den vertrauten Rhythmus sogar regelrecht angespornt, behauptet Jonas Obleser. Diese Behauptung konnten die Neurowissenschaftler in Tests nachweisen:

"Das was so ein bisschen an eine Polizeisirene erinnert, das ist die Drei-Hertz- Schwingung, wiuwiuwiu … eins zwei drei, da kommen sie etwa auf drei Hertz. Jetzt können Sie sich richtig vorstellen, wie Ihr Gehirn auch anfängt, da mitzugehen."

Sprache verstehen wir in einem Rhythmus von ungefähr einem bis zehn Hertz. Die Forscher entschieden sich, die Tests mit Drei-Hertz-Schwingungen zu machen. Während die Probanden den Ton vorgespielt bekamen, zeichnete ein EEG deren Gehirnströme millisekundengenau auf.

Die Reize, die wir verwendet haben, waren zehn Sekunden lange Töne, erläutert die Psychologin Molly Henry. In diese sirenenähnliche Melodien sind kleine Momente der Stille, kleine Lücken eingefügt - an für den Hörer unerwarteten Stellen.

Die Aufgabe des Hörers war es, einen Knopf zu drücken, wenn er oder sie diese kaum hörbare kleine Lücke hörte. Mit dieser Methode konnten die Forscher die Aufmerksamkeitsfähigkeit bei entsprechenden Rhythmen messen und erkannten,

"… dass diese Drei-Hertz-Schwingung sich einfach verstärkt, die ‚räsoniert’, die klingt nach, die koppelt sich an die Akustik, so dass, wenn wir ein Gehirn ohne diesen auditiven Drei-Hertz-Input anschauen, dann sehen wir da alle möglichen Frequenzen unterschiedlich stark vertreten. Und wenn wir jetzt drei Hertz anbieten, dann kann man im Gehirn richtig sehen, wie die Drei-Hertz-Aktivität auch verstärkt wird."

Um zuzuhören, brauchen wir also vertraute Rhythmen. Das könnte erklären, warum manche Menschen erfolgreiche Redner sind und andere nicht.

"Ein schönes Beispiel: Jemand, der ganz ohne Sprachmelodie spricht, das ist ja auch sehr anstrengend, und es gibt Menschen, die so sprechen, und das macht einen fast wahnsinnig. Es ist eben etwas anderes, als wenn ich ganz normal mit modelliere."

Unser Gehirn koppelt sich beim Sprache Hören mit ihm vertrauten Rhythmen. Durch dieses neue Wissen könnten wir mehr über die Ursachen von Altersschwerhörigkeit erfahren. Wir könnten herausfinden, warum manche Politiker in ihren Reden schwer verständlich sind und andere leichter.

Oder warum es uns schwer fällt, Chinesisch oder Arabisch zu verstehen. Fragen gibt es unendlich viele. Die Neurowissenschaftler Molly Henry und Jonas Obleser könnten uns bald ein paar spannende Antworten liefern.