Localizzazione del suono: come il cervello riconosce le fonti sonore

Localizzazione del suono: come il cervello riconosce le fonti sonore

Il mondo che ci circonda è pieno di tutti i tipi di informazioni che il nostro cervello elabora continuamente. Egli riceve queste informazioni attraverso gli organi di senso, ciascuno dei quali è responsabile della sua parte di segnali: occhi (vista), lingua (gusto), naso (olfatto), pelle (tatto), apparato vestibolare (equilibrio, posizione nello spazio e senso del corpo). peso) e orecchie (suono). Combinando i segnali provenienti da tutti questi organi, il nostro cervello può costruire un quadro accurato del nostro ambiente. Ma non tutti gli aspetti dell'elaborazione dei segnali esterni ci sono noti. Uno di questi segreti è il meccanismo per localizzare la fonte dei suoni.

Gli scienziati del Laboratorio di Neuroingegneria della Parola e dell'Udito (New Jersey Institute of Technology) hanno proposto un nuovo modello del processo neurale di localizzazione del suono. Quali processi esatti avvengono nel cervello durante la percezione del suono, come il nostro cervello comprende la posizione della sorgente sonora e come questa ricerca può aiutare nella lotta contro i difetti dell'udito. Lo apprendiamo dal rapporto del gruppo di ricerca. Andare.

Base di ricerca

Le informazioni che il nostro cervello riceve dai nostri sensi differiscono l'una dall'altra, sia in termini di fonte che in termini di elaborazione. Alcuni segnali appaiono immediatamente al nostro cervello come informazioni accurate, mentre altri richiedono processi computazionali aggiuntivi. In parole povere, sentiamo immediatamente un tocco, ma quando sentiamo un suono dobbiamo ancora scoprire da dove proviene.

La base per localizzare i suoni sul piano orizzontale è interaurale* differenza oraria (ITD da differenza di tempo interaurale) i suoni raggiungono le orecchie dell'ascoltatore.

Base interaurale* - distanza tra le orecchie.

C'è un'area specifica nel cervello (l'oliva mediale superiore o MSO) che è responsabile di questo processo. Nel momento in cui il segnale sonoro viene ricevuto nel MVO, le differenze temporali interaurali vengono convertite nella velocità di reazione dei neuroni. La forma delle curve di velocità di uscita dell'MBO in funzione dell'ITD assomiglia alla forma della funzione di correlazione incrociata dei segnali di ingresso per ciascun orecchio.

Il modo in cui le informazioni vengono elaborate e interpretate nell'MBO non è del tutto chiaro, motivo per cui esistono diverse teorie molto contraddittorie. La teoria più famosa e di fatto classica della localizzazione del suono è il modello di Jeffress (Lloyd A. Jeffress). È basato su linea contrassegnata* neuroni rivelatori che sono sensibili alla sincronia binaurale degli input neurali provenienti da ciascun orecchio, con ciascun neurone che è massimamente sensibile a una certa quantità di ITD ().

Principio della linea contrassegnata* è un'ipotesi che spiega come nervi diversi, che utilizzano tutti gli stessi principi fisiologici nel trasmettere gli impulsi lungo i loro assoni, siano in grado di generare sensazioni diverse. Nervi strutturalmente simili possono generare percezioni sensoriali diverse se sono collegati a neuroni unici nel sistema nervoso centrale che sono in grado di decodificare segnali nervosi simili in modi diversi.

Localizzazione del suono: come il cervello riconosce le fonti sonore
Immagine n. 1

Questo modello è computazionalmente simile alla codifica neurale, basata su correlazioni incrociate non vincolate di suoni che raggiungono entrambe le orecchie.

Esiste anche un modello che suggerisce che la localizzazione del suono può essere modellata in base alle differenze nella velocità di risposta di alcune popolazioni di neuroni provenienti da diversi emisferi del cervello, ad es. modello di asimmetria interemisferica (1V).

Fino ad ora era difficile stabilire in modo inequivocabile quale delle due teorie (modelli) fosse corretta, dato che ciascuna di esse prevede diverse dipendenze della localizzazione del suono dall’intensità del suono.

Nello studio che esaminiamo oggi, i ricercatori hanno deciso di combinare entrambi i modelli per capire se la percezione dei suoni si basa sulla codifica neurale o su differenze nella risposta delle singole popolazioni neurali. Sono stati condotti diversi esperimenti a cui hanno preso parte persone di età compresa tra 18 e 27 anni (5 donne e 7 uomini). L'audiometria dei partecipanti (una misurazione dell'acuità uditiva) era di 25 dB o superiore tra 250 e 8000 Hz. Il partecipante agli esperimenti è stato collocato in una stanza insonorizzata, nella quale è stata collocata un'attrezzatura speciale, calibrata con elevata precisione. I partecipanti dovevano, dopo aver udito un segnale sonoro, indicare la direzione da cui proveniva.

Risultati dello studio

Per valutare la dipendenza lateralizzazione* attività cerebrale dall'intensità del suono in risposta ai neuroni etichettati, sono stati utilizzati dati sulla velocità di reazione dei neuroni nel nucleo laminare del cervello del barbagianni.

Lateralità* - asimmetria delle metà sinistra e destra del corpo.

Per valutare la dipendenza della lateralizzazione dell'attività cerebrale dalla velocità di reazione di alcune popolazioni di neuroni, sono stati utilizzati i dati dell'attività del collicolo inferiore del cervello della scimmia rhesus, dopo di che sono state inoltre calcolate le differenze nella velocità dei neuroni di diversi emisferi .

Il modello a linea marcata dei neuroni rivelatori prevede che al diminuire dell’intensità del suono, la lateralità della sorgente percepita convergerà a valori medi simili al rapporto tra suoni deboli e forti (1S).

Il modello di asimmetria emisferica, a sua volta, suggerisce che quando l’intensità del suono diminuisce fino a livelli prossimi alla soglia, la lateralità percepita si sposterà verso la linea mediana (1D).

A un'intensità sonora complessiva più elevata, si prevede che la lateralizzazione sia invariante dell'intensità (inserti in 1S и 1D).

Pertanto, l'analisi di come l'intensità del suono influisce sulla direzione percepita del suono ci consente di determinare con precisione la natura dei processi che si verificano in quel momento: neuroni della stessa area generale o neuroni di emisferi diversi.

Chiaramente, la capacità di una persona di discriminare l'ITD può variare a seconda dell'intensità del suono. Tuttavia, gli scienziati affermano che è difficile interpretare i risultati precedenti che collegavano la sensibilità all'ITD e il giudizio degli ascoltatori sulla direzione della sorgente sonora in funzione dell'intensità del suono. Alcuni studi affermano che quando l’intensità del suono raggiunge una soglia limite, la lateralità percepita della sorgente diminuisce. Altri studi suggeriscono che non vi è alcun effetto dell’intensità sulla percezione.

In altre parole, gli scienziati suggeriscono “gentilmente” che ci sono poche informazioni in letteratura riguardo alla relazione tra ITD, intensità del suono e determinazione della direzione della sua fonte. Esistono teorie che esistono come una sorta di assiomi, generalmente accettati dalla comunità scientifica. Pertanto, si è deciso di testare in dettaglio tutte le teorie, i modelli e i possibili meccanismi di percezione dell'udito nella pratica.

Il primo esperimento si basava su un paradigma psicofisico che consentiva lo studio della lateralizzazione basata su ITD in funzione dell'intensità del suono in un gruppo di dieci partecipanti con udito normale.

Localizzazione del suono: come il cervello riconosce le fonti sonore
Immagine n. 2

Le sorgenti sonore sono state specificatamente sintonizzate per coprire la maggior parte della gamma di frequenze entro la quale gli esseri umani sono in grado di riconoscere l'ITD, vale a dire da 300 a 1200 Hz ().

In ciascuna prova, l'ascoltatore doveva indicare la lateralità percepita, misurata in funzione del livello di sensazione, in un intervallo di valori ITD compreso tra 375 e 375 ms. Per determinare l'effetto dell'intensità del suono, è stato utilizzato un modello a effetti misti non lineari (NMLE) che includeva sia l'intensità del suono fissa che quella casuale.

Programmare 2V dimostra la lateralizzazione stimata con rumore spettralmente piatto a due intensità sonore per un ascoltatore rappresentativo. E il programma 2S mostra i dati grezzi (cerchi) e il modello NMLE adattato (linee) di tutti gli ascoltatori.

Localizzazione del suono: come il cervello riconosce le fonti sonore
Tabella n. 1

La tabella sopra mostra tutti i parametri NLME. Si può vedere che la lateralità percepita aumenta con l’aumento dell’ITD, come previsto dagli scienziati. Man mano che l’intensità del suono diminuiva, la percezione si spostava sempre più verso la linea mediana (riquadro nel grafico 2C).

Queste tendenze sono state supportate dal modello NLME, che ha mostrato effetti significativi dell'ITD e dell'intensità del suono sul massimo grado di lateralità, supportando il modello delle differenze interemisferiche.

Inoltre, le soglie audiometriche medie per i toni puri hanno avuto scarso effetto sulla lateralità percepita. Ma l’intensità del suono non ha influenzato in modo significativo gli indicatori delle funzioni psicometriche.

L'obiettivo principale del secondo esperimento era determinare come sarebbero cambiati i risultati ottenuti nell'esperimento precedente tenendo conto delle caratteristiche spettrali degli stimoli (suoni). La necessità di testare il rumore spettralmente piatto a bassa intensità sonora è che parti dello spettro potrebbero non essere udibili e ciò potrebbe influenzare la determinazione della direzione del suono. Di conseguenza, i risultati del primo esperimento possono essere erroneamente confusi con il fatto che l'ampiezza della parte udibile dello spettro può diminuire al diminuire dell'intensità del suono.

Pertanto, si è deciso di condurre un altro esperimento, ma utilizzando il contrario Ponderazione A* rumore

Pesata A* applicato ai livelli sonori per tenere conto del volume relativo percepito dall'orecchio umano, poiché l'orecchio è meno sensibile alle basse frequenze sonore. La ponderazione A viene implementata aggiungendo aritmeticamente una tabella di valori elencati in bande di ottava ai livelli di pressione sonora misurati in dB.

Sul grafico 2D mostra i dati grezzi (cerchi) e i dati adattati al modello NMLE (linee) di tutti i partecipanti all'esperimento.

L'analisi dei dati ha mostrato che quando tutte le parti del suono sono approssimativamente ugualmente udibili (sia nella prima che nella seconda prova), la lateralità percepita e la pendenza nel grafico che spiega il cambiamento della lateralità con ITD diminuiscono al diminuire dell'intensità del suono.

Pertanto, i risultati del secondo esperimento hanno confermato i risultati del primo. Cioè, in pratica è stato dimostrato che il modello proposto nel 1948 da Jeffress non è corretto.

Si scopre che la localizzazione del suono peggiora al diminuire dell'intensità del suono e Jeffress credeva che i suoni fossero percepiti ed elaborati dagli esseri umani allo stesso modo, indipendentemente dalla loro intensità.

Per una conoscenza più dettagliata delle sfumature dello studio, consiglio di guardare riferiscono gli scienziati.

Finale

Presupposti teorici ed esperimenti pratici che li confermano hanno dimostrato che i neuroni cerebrali nei mammiferi vengono attivati ​​a velocità diverse a seconda della direzione del segnale sonoro. Il cervello confronta quindi queste velocità tra tutti i neuroni coinvolti nel processo per costruire dinamicamente una mappa dell’ambiente sonoro.

Il modello di Jeffresson in realtà non è sbagliato al 100%, poiché può essere utilizzato per descrivere perfettamente la localizzazione della sorgente sonora nei barbagianni. Sì, per i barbagianni l'intensità del suono non ha importanza, in ogni caso determineranno la posizione della sua sorgente. Tuttavia, questo modello non funziona con le scimmie rhesus, come hanno dimostrato esperimenti precedenti. Pertanto, questo modello di Jeffresson non può descrivere la localizzazione dei suoni per tutti gli esseri viventi.

Esperimenti con partecipanti umani hanno confermato ancora una volta che la localizzazione del suono avviene in modo diverso nei diversi organismi. Molti partecipanti non sono stati in grado di determinare correttamente la posizione della fonte dei segnali sonori a causa della bassa intensità dei suoni.

Gli scienziati ritengono che il loro lavoro mostri alcune somiglianze tra il modo in cui vediamo e il modo in cui sentiamo. Entrambi i processi sono associati alla velocità dei neuroni in diverse parti del cervello, nonché alla valutazione di questa differenza per determinare sia la posizione degli oggetti che vediamo nello spazio sia la posizione della fonte del suono che sentiamo.

In futuro, i ricercatori condurranno una serie di esperimenti per esaminare più in dettaglio la connessione tra l'udito umano e la vista, che ci permetteranno di capire meglio come esattamente il nostro cervello costruisce dinamicamente una mappa del mondo che ci circonda.

Grazie per l'attenzione, rimanete curiosi e buona settimana a tutti! 🙂

Grazie per stare con noi. Ti piacciono i nostri articoli? Vuoi vedere contenuti più interessanti? Sostienici effettuando un ordine o raccomandando agli amici, cloud VPS per sviluppatori da $ 4.99, Sconto del 30% per gli utenti Habr su un analogo unico di server entry-level, che è stato inventato da noi per te: Tutta la verità su VPS (KVM) E5-2650 v4 (6 core) 10 GB DDR4 240 GB SSD 1 Gbps da $ 20 o come condividere un server? (disponibile con RAID1 e RAID10, fino a 24 core e fino a 40 GB DDR4).

Dell R730xd 2 volte più economico? Solo qui 2 x Intel TetraDeca-Core Xeon 2x E5-2697v3 2.6GHz 14C 64GB DDR4 4x960GB SSD 1Gbps 100 TV da $199 In Olanda! Dell R420 - 2x E5-2430 2.2Ghz 6C 128GB DDR3 2x960GB SSD 1Gbps 100TB - da $99! Leggi Come costruire Infrastructure Corp. classe con l'utilizzo di server Dell R730xd E5-2650 v4 del valore di 9000 euro per un centesimo?

Fonte: habr.com

Aggiungi un commento