Schalllokalisierung: Wie das Gehirn Schallquellen erkennt

Schalllokalisierung: Wie das Gehirn Schallquellen erkennt

Die Welt um uns herum ist voller Informationen aller Art, die unser Gehirn kontinuierlich verarbeitet. Er erhält diese Informationen über Sinnesorgane, von denen jedes für seinen Anteil an Signalen verantwortlich ist: Augen (Sehen), Zunge (Geschmack), Nase (Geruch), Haut (Berührung), Vestibularapparat (Gleichgewicht, Position im Raum und Sinn für Gewicht) und Ohren (Geräusch). Durch die Kombination der Signale all dieser Organe kann unser Gehirn ein genaues Bild unserer Umgebung erstellen. Allerdings sind uns nicht alle Aspekte der Verarbeitung externer Signale bekannt. Eines dieser Geheimnisse ist der Mechanismus zur Lokalisierung der Schallquelle.

Wissenschaftler des Laboratory of Neuroengineering of Speech and Hearing (New Jersey Institute of Technology) haben ein neues Modell des neuronalen Prozesses der Schalllokalisierung vorgeschlagen. Welche genauen Prozesse im Gehirn bei der Wahrnehmung von Schall ablaufen, wie unser Gehirn die Position der Schallquelle versteht und wie diese Forschung im Kampf gegen Hörschäden helfen kann. Das erfahren wir aus dem Bericht der Forschungsgruppe. Gehen.

Forschungsgrundlage

Die Informationen, die unser Gehirn über unsere Sinne erhält, unterscheiden sich sowohl hinsichtlich ihrer Quelle als auch hinsichtlich ihrer Verarbeitung. Einige Signale erscheinen unserem Gehirn sofort als genaue Informationen, während andere zusätzliche Rechenprozesse erfordern. Grob gesagt spüren wir eine Berührung sofort, aber wenn wir ein Geräusch hören, müssen wir noch herausfinden, woher es kommt.

Die Grundlage für die Lokalisierung von Geräuschen in der horizontalen Ebene ist interaural* Zeitunterschied (ITD von interauraler Zeitunterschied) Geräusche, die das Ohr des Zuhörers erreichen.

Interaurale Basis* - Abstand zwischen den Ohren.

Es gibt einen bestimmten Bereich im Gehirn (die mediale obere Olive oder MSO), der für diesen Prozess verantwortlich ist. In dem Moment, in dem das Schallsignal im MVO empfangen wird, werden interaurale Zeitunterschiede in die Reaktionsgeschwindigkeit von Neuronen umgewandelt. Die Form der MBO-Ausgangsgeschwindigkeitskurven als Funktion von ITD ähnelt der Form der Kreuzkorrelationsfunktion der Eingangssignale für jedes Ohr.

Wie Informationen im MBO verarbeitet und interpretiert werden, ist noch nicht ganz klar, weshalb es mehrere sehr widersprüchliche Theorien gibt. Die bekannteste und tatsächlich klassische Theorie der Schalllokalisierung ist das Jeffress-Modell (Lloyd A. Jeffress). Es basiert auf markierte Linie* Detektorneuronen, die empfindlich auf die binaurale Synchronität neuronaler Eingaben von jedem Ohr reagieren, wobei jedes Neuron maximal empfindlich auf eine bestimmte Menge an ITD reagiert ().

Prinzip der markierten Linie* ist eine Hypothese, die erklärt, wie verschiedene Nerven, die alle die gleichen physiologischen Prinzipien bei der Übertragung von Impulsen entlang ihrer Axone nutzen, unterschiedliche Empfindungen erzeugen können. Strukturell ähnliche Nerven können unterschiedliche Sinneswahrnehmungen erzeugen, wenn sie mit einzigartigen Neuronen im Zentralnervensystem verbunden sind, die in der Lage sind, ähnliche Nervensignale auf unterschiedliche Weise zu dekodieren.

Schalllokalisierung: Wie das Gehirn Schallquellen erkennt
Bild #1

Dieses Modell ähnelt rechnerisch der neuronalen Kodierung und basiert auf uneingeschränkten Kreuzkorrelationen von Geräuschen, die beide Ohren erreichen.

Es gibt auch ein Modell, das darauf hindeutet, dass die Schalllokalisierung auf der Grundlage von Unterschieden in der Reaktionsgeschwindigkeit bestimmter Neuronenpopulationen aus verschiedenen Gehirnhälften modelliert werden kann, d. h. Modell der interhemisphärischen Asymmetrie (1V).

Bisher war es schwierig, eindeutig zu sagen, welche der beiden Theorien (Modelle) richtig ist, da jede von ihnen unterschiedliche Abhängigkeiten der Schalllokalisation von der Schallintensität vorhersagt.

In der Studie, die wir heute betrachten, beschlossen die Forscher, beide Modelle zu kombinieren, um zu verstehen, ob die Wahrnehmung von Geräuschen auf neuronaler Kodierung oder auf Unterschieden in der Reaktion einzelner neuronaler Populationen basiert. Es wurden mehrere Experimente durchgeführt, an denen Personen im Alter von 18 bis 27 Jahren (5 Frauen und 7 Männer) teilnahmen. Die Audiometrie der Teilnehmer (eine Messung der Hörschärfe) betrug zwischen 25 und 250 Hz 8000 dB oder mehr. Der Teilnehmer an den Experimenten wurde in einen schallisolierten Raum gebracht, in dem spezielle, mit hoher Genauigkeit kalibrierte Geräte untergebracht waren. Die Teilnehmer mussten beim Hören eines Tonsignals die Richtung angeben, aus der es kam.

Ergebnisse der Studie

Abhängigkeit beurteilen Lateralisierung* Um die Gehirnaktivität aus der Schallintensität als Reaktion auf markierte Neuronen zu ermitteln, wurden Daten zur Reaktionsgeschwindigkeit von Neuronen im laminaren Kern des Gehirns der Schleiereule verwendet.

Lateralität* - Asymmetrie der linken und rechten Körperhälfte.

Um die Abhängigkeit der Lateralisierung der Gehirnaktivität von der Reaktionsgeschwindigkeit bestimmter Neuronenpopulationen abzuschätzen, wurden Daten aus der Aktivität des Colliculus inferior des Rhesusaffengehirns herangezogen und anschließend zusätzlich Unterschiede in der Geschwindigkeit von Neuronen aus verschiedenen Hemisphären berechnet .

Das markierte Linienmodell der Detektorneuronen sagt voraus, dass mit abnehmender Schallintensität die Lateralität der wahrgenommenen Quelle zu Mittelwerten konvergiert, die dem Verhältnis von leisen zu lauten Tönen ähneln (1S).

Das hemisphärische Asymmetriemodell legt wiederum nahe, dass sich die wahrgenommene Lateralität in Richtung der Mittellinie verschiebt, wenn die Schallintensität auf Werte nahe dem Schwellenwert abnimmt (1D).

Bei einer höheren Gesamtschallintensität wird erwartet, dass die Lateralisierung intensitätsinvariant ist (Einschübe in 1S и 1D).

Daher können wir durch die Analyse, wie sich die Schallintensität auf die wahrgenommene Schallrichtung auswirkt, die Art der in diesem Moment ablaufenden Prozesse genau bestimmen – Neuronen aus demselben allgemeinen Bereich oder Neuronen aus verschiedenen Hemisphären.

Offensichtlich kann die Fähigkeit einer Person, ITD zu unterscheiden, abhängig von der Schallintensität variieren. Allerdings sagen die Wissenschaftler, dass es schwierig sei, frühere Erkenntnisse zu interpretieren, die die Empfindlichkeit mit ITD und der Beurteilung der Schallquellenrichtung durch Zuhörer als Funktion der Schallintensität in Verbindung bringen. Einige Studien sagen, dass die wahrgenommene Lateralität der Quelle abnimmt, wenn die Schallintensität einen Grenzschwellenwert erreicht. Andere Studien deuten darauf hin, dass die Intensität überhaupt keinen Einfluss auf die Wahrnehmung hat.

Mit anderen Worten: Wissenschaftler weisen „sanft“ darauf hin, dass es in der Literatur nur wenige Informationen über den Zusammenhang zwischen ITD, Schallintensität und der Bestimmung der Richtung seiner Quelle gibt. Es gibt Theorien, die als eine Art Axiome existieren und von der wissenschaftlichen Gemeinschaft allgemein akzeptiert werden. Daher wurde beschlossen, alle Theorien, Modelle und möglichen Mechanismen der Hörwahrnehmung in der Praxis detailliert zu testen.

Das erste Experiment basierte auf einem psychophysischen Paradigma, das die Untersuchung der ITD-basierten Lateralisierung als Funktion der Schallintensität in einer Gruppe von zehn normalhörenden Teilnehmern ermöglichte.

Schalllokalisierung: Wie das Gehirn Schallquellen erkennt
Bild #2

Die Schallquellen wurden speziell darauf abgestimmt, den größten Teil des Frequenzbereichs abzudecken, in dem Menschen ITD erkennen können, d. h. von 300 bis 1200 Hz ().

Bei jedem Versuch musste der Hörer die wahrgenommene Lateralität angeben, gemessen als Funktion des Empfindungsniveaus, über einen Bereich von ITD-Werten von 375 bis 375 ms. Um den Effekt der Schallintensität zu bestimmen, wurde ein nichtlineares Mixed-Effects-Modell (NMLE) verwendet, das sowohl feste als auch zufällige Schallintensität umfasste.

Planen 2V demonstriert die geschätzte Lateralisierung mit spektral flachem Rauschen bei zwei Schallintensitäten für einen repräsentativen Zuhörer. Und der Zeitplan 2S zeigt die Rohdaten (Kreise) und das angepasste NMLE-Modell (Linien) aller Hörer.

Schalllokalisierung: Wie das Gehirn Schallquellen erkennt
Tischnummer 1

Die obige Tabelle zeigt alle NLME-Parameter. Es ist zu erkennen, dass die wahrgenommene Lateralität mit zunehmender ITD zunahm, wie von den Wissenschaftlern erwartet. Mit abnehmender Schallintensität verlagerte sich die Wahrnehmung immer mehr in Richtung Mittellinie (Einschub in der Grafik). 2C).

Diese Trends wurden durch das NLME-Modell gestützt, das signifikante Auswirkungen von ITD und Schallintensität auf den maximalen Grad der Lateralität zeigte und das Modell der interhemisphärischen Unterschiede stützte.

Darüber hinaus hatten mittlere audiometrische Schwellenwerte für reine Töne kaum Einfluss auf die wahrgenommene Lateralität. Die Schallintensität hatte jedoch keinen signifikanten Einfluss auf die Indikatoren psychometrischer Funktionen.

Das Hauptziel des zweiten Experiments bestand darin, zu bestimmen, wie sich die im vorherigen Experiment erzielten Ergebnisse ändern würden, wenn die spektralen Eigenschaften der Reize (Geräusche) berücksichtigt würden. Die Notwendigkeit, spektral flaches Rauschen bei geringer Schallintensität zu testen, besteht darin, dass Teile des Spektrums möglicherweise nicht hörbar sind und dies die Bestimmung der Schallrichtung beeinträchtigen kann. Folglich können die Ergebnisse des ersten Experiments fälschlicherweise mit der Tatsache verwechselt werden, dass die Breite des hörbaren Teils des Spektrums mit abnehmender Schallintensität abnehmen kann.

Daher wurde beschlossen, ein weiteres Experiment durchzuführen, jedoch in umgekehrter Reihenfolge A-gewichtet* Lärm

A-Wägung* Wird auf Schallpegel angewendet, um die vom menschlichen Ohr wahrgenommene relative Lautstärke zu berücksichtigen, da das Ohr weniger empfindlich auf niedrige Schallfrequenzen reagiert. Die A-Bewertung erfolgt durch arithmetische Addition einer in Oktavbändern aufgeführten Wertetabelle zu den gemessenen Schalldruckpegeln in dB.

Auf dem Diagramm 2D zeigt Rohdaten (Kreise) und an das NMLE-Modell angepasste Daten (Linien) von allen Teilnehmern des Experiments.

Die Analyse der Daten ergab, dass die wahrgenommene Lateralität und die Steigung im Diagramm, die die Änderung der Lateralität mit ITD erklärt, mit abnehmender Schallintensität abnehmen, wenn alle Teile des Schalls ungefähr gleich hörbar sind (sowohl im ersten als auch im zweiten Versuch).

Somit bestätigten die Ergebnisse des zweiten Experiments die Ergebnisse des ersten. Das heißt, in der Praxis hat sich gezeigt, dass das 1948 von Jeffress vorgeschlagene Modell nicht korrekt ist.

Es stellte sich heraus, dass sich die Schalllokalisierung mit abnehmender Schallintensität verschlechterte, und Jeffress glaubte, dass Geräusche von Menschen unabhängig von ihrer Intensität auf die gleiche Weise wahrgenommen und verarbeitet werden.

Für eine detailliertere Bekanntschaft mit den Nuancen der Studie empfehle ich einen Blick auf Wissenschaftler berichten.

Letzter Akt

Theoretische Annahmen und praktische Experimente, die sie bestätigen, haben gezeigt, dass Gehirnneuronen bei Säugetieren je nach Richtung des Schallsignals unterschiedlich schnell aktiviert werden. Das Gehirn vergleicht dann diese Geschwindigkeiten zwischen allen am Prozess beteiligten Neuronen, um dynamisch eine Karte der Klangumgebung zu erstellen.

Jeffressons Modell ist tatsächlich nicht zu 100 % falsch, da sich damit die Lokalisierung der Schallquelle bei Schleiereulen perfekt beschreiben lässt. Ja, für Schleiereulen spielt die Intensität des Geräusches keine Rolle; in jedem Fall bestimmen sie die Position seiner Quelle. Allerdings funktioniert dieses Modell bei Rhesusaffen nicht, wie frühere Experimente gezeigt haben. Daher kann dieses Jeffresson-Modell die Lokalisierung von Geräuschen für alle Lebewesen nicht beschreiben.

Experimente mit menschlichen Teilnehmern haben erneut bestätigt, dass die Schalllokalisation in verschiedenen Organismen unterschiedlich erfolgt. Aufgrund der geringen Intensität der Geräusche war es vielen Teilnehmern nicht möglich, die Position der Schallsignalquelle korrekt zu bestimmen.

Wissenschaftler glauben, dass ihre Arbeit gewisse Ähnlichkeiten zwischen unserem Sehen und unserem Hören aufweist. Beide Prozesse hängen mit der Geschwindigkeit von Neuronen in verschiedenen Teilen des Gehirns sowie mit der Bewertung dieses Unterschieds zusammen, um sowohl die Position der Objekte, die wir im Raum sehen, als auch die Position der Quelle des Schalls, den wir hören, zu bestimmen.

In Zukunft werden die Forscher in einer Reihe von Experimenten den Zusammenhang zwischen menschlichem Hören und Sehen genauer untersuchen und so besser verstehen, wie genau unser Gehirn dynamisch eine Karte der Welt um uns herum erstellt.

Vielen Dank für Ihre Aufmerksamkeit, bleiben Sie neugierig und wünschen Ihnen allen eine tolle Woche! 🙂

Vielen Dank, dass Sie bei uns geblieben sind. Gefallen Ihnen unsere Artikel? Möchten Sie weitere interessante Inhalte sehen? Unterstützen Sie uns, indem Sie eine Bestellung aufgeben oder an Freunde weiterempfehlen. Cloud-VPS für Entwickler ab 4.99 $, 30 % Rabatt für Habr-Benutzer auf ein einzigartiges Analogon von Einstiegsservern, das von uns für Sie erfunden wurde: Die ganze Wahrheit über VPS (KVM) E5-2650 v4 (6 Kerne) 10 GB DDR4 240 GB SSD 1 Gbit/s ab 20 $ oder wie teilt man sich einen Server? (verfügbar mit RAID1 und RAID10, bis zu 24 Kerne und bis zu 40 GB DDR4).

Dell R730xd 2-mal günstiger? Nur hier 2 x Intel TetraDeca-Core Xeon 2x E5-2697v3 2.6 GHz 14C 64 GB DDR4 4 x 960 GB SSD 1 Gbit/s 100 TV ab 199 $ in den Niederlanden! Dell R420 – 2x E5-2430 2.2 GHz 6C 128 GB DDR3 2 x 960 GB SSD 1 Gbit/s 100 TB – ab 99 $! Lesen über Wie baut man ein Infrastrukturunternehmen auf? Klasse mit dem Einsatz von Dell R730xd E5-2650 v4 Servern im Wert von 9000 Euro für einen Cent?

Source: habr.com

Kommentar hinzufügen