Localización del sonido: cómo el cerebro reconoce las fuentes de sonido

Localización del sonido: cómo el cerebro reconoce las fuentes de sonido

El mundo que nos rodea está lleno de todo tipo de información que nuestro cerebro procesa continuamente. Recibe esta información a través de órganos de los sentidos, cada uno de los cuales es responsable de su parte de señales: ojos (visión), lengua (gusto), nariz (olfato), piel (tacto), aparato vestibular (equilibrio, posición en el espacio y sentido de peso) y oídos (sonido). Al combinar señales de todos estos órganos, nuestro cerebro puede crear una imagen precisa de nuestro entorno. Pero no conocemos todos los aspectos del procesamiento de señales externas. Uno de estos secretos es el mecanismo para localizar la fuente de los sonidos.

Científicos del Laboratorio de Neuroingeniería del Habla y la Audición (Instituto Tecnológico de Nueva Jersey) han propuesto un nuevo modelo del proceso neuronal de localización del sonido. Qué procesos exactos ocurren en el cerebro durante la percepción del sonido, cómo nuestro cerebro entiende la posición de la fuente del sonido y cómo esta investigación puede ayudar en la lucha contra los defectos auditivos. Aprendemos sobre esto por el informe del grupo de investigación. Ir.

Base de investigación

La información que nuestro cerebro recibe de nuestros sentidos difiere entre sí, tanto en términos de su fuente como de su procesamiento. Algunas señales aparecen inmediatamente en nuestro cerebro como información precisa, mientras que otras requieren procesos computacionales adicionales. En términos generales, sentimos un toque inmediatamente, pero cuando escuchamos un sonido, todavía tenemos que encontrar de dónde viene.

La base para localizar sonidos en el plano horizontal es interaural* diferencia horaria (ITD de diferencia horaria interaural) sonidos que llegan a los oídos del oyente.

Base interaural* - distancia entre orejas.

Hay un área específica en el cerebro (la oliva superior medial o MSO) que es responsable de este proceso. En el momento de recibir una señal de audio en el MVO, las diferencias de tiempo interaurales se convierten en la velocidad de reacción de las neuronas. La forma de las curvas de velocidad de salida de MVO en función de ITD se asemeja a la forma de la función de correlación cruzada de las señales de entrada para cada oído.

Aún no está del todo claro cómo se procesa e interpreta la información en MBO, por lo que existen varias teorías muy contradictorias. La teoría más famosa y, de hecho, clásica de la localización del sonido es el modelo de Jeffress (Lloyd A. Jeffress). Está basado en línea marcada* Neuronas detectoras que son sensibles a la sincronía binaural de entradas neuronales de cada oído, siendo cada neurona máximamente sensible a una cierta cantidad de ITD ().

Principio de línea marcada* es una hipótesis que explica cómo diferentes nervios, todos los cuales utilizan los mismos principios fisiológicos para transmitir impulsos a lo largo de sus axones, son capaces de generar diferentes sensaciones. Nervios estructuralmente similares pueden generar diferentes percepciones sensoriales si están conectados a neuronas únicas en el sistema nervioso central que son capaces de decodificar señales nerviosas similares de diferentes maneras.

Localización del sonido: cómo el cerebro reconoce las fuentes de sonido
Imagen #1

Este modelo es computacionalmente similar a la codificación neuronal, basada en correlaciones cruzadas ilimitadas de sonidos que llegan a ambos oídos.

También existe un modelo que sugiere que la localización del sonido se puede modelar basándose en diferencias en la velocidad de respuesta de ciertas poblaciones de neuronas de diferentes hemisferios del cerebro, es decir, modelo de asimetría interhemisférica (1V).

Hasta ahora era difícil afirmar sin ambigüedades cuál de las dos teorías (modelos) es correcta, dado que cada una de ellas predice diferentes dependencias de la localización del sonido con respecto a la intensidad del sonido.

En el estudio que estamos viendo hoy, los investigadores decidieron combinar ambos modelos para comprender si la percepción de los sonidos se basa en la codificación neuronal o en diferencias en la respuesta de poblaciones neuronales individuales. Se realizaron varios experimentos en los que participaron personas de entre 18 y 27 años (5 mujeres y 7 hombres). La audiometría de los participantes (una medida de la agudeza auditiva) fue de 25 dB o más entre 250 y 8000 Hz. El participante en los experimentos fue colocado en una habitación insonorizada, en la que se colocó un equipo especial, calibrado con alta precisión. Los participantes debían, al escuchar una señal sonora, indicar la dirección de donde procedía.

Resultados de la investigación

Para evaluar la dependencia lateralización* Para determinar la actividad cerebral a partir de la intensidad del sonido en respuesta a las neuronas marcadas, se utilizaron datos sobre la velocidad de reacción de las neuronas en el núcleo laminar del cerebro de la lechuza.

Lateralidad* - asimetría de las mitades izquierda y derecha del cuerpo.

Para evaluar la dependencia de la lateralización de la actividad cerebral de la velocidad de reacción de ciertas poblaciones de neuronas, se utilizaron datos de la actividad del colículo inferior del cerebro del mono rhesus, después de lo cual se calcularon adicionalmente las diferencias en la velocidad de las neuronas de diferentes hemisferios. .

El modelo de línea marcada de las neuronas detectoras predice que a medida que disminuye la intensidad del sonido, la lateralidad de la fuente percibida convergerá a valores medios similares a la proporción de sonidos suaves a fuertes (1S).

El modelo de asimetría hemisférica, a su vez, sugiere que a medida que la intensidad del sonido disminuye hasta niveles cercanos al umbral, la lateralidad percibida se desplazará hacia la línea media.1D).

A una intensidad de sonido general más alta, se espera que la lateralización sea invariante en intensidad (inserciones en 1S и 1D).

Por lo tanto, analizar cómo la intensidad del sonido afecta la dirección percibida del sonido nos permite determinar con precisión la naturaleza de los procesos que ocurren en ese momento: neuronas de la misma área general o neuronas de diferentes hemisferios.

Claramente, la capacidad de una persona para discriminar ITD puede variar dependiendo de la intensidad del sonido. Sin embargo, los científicos dicen que es difícil interpretar hallazgos anteriores que vinculan la sensibilidad con la ITD y el juicio de los oyentes sobre la dirección de la fuente del sonido en función de la intensidad del sonido. Algunos estudios dicen que cuando la intensidad del sonido alcanza un umbral límite, la lateralidad percibida de la fuente disminuye. Otros estudios sugieren que no existe ningún efecto de la intensidad sobre la percepción.

En otras palabras, los científicos insinúan "suavemente" que hay poca información en la literatura sobre la relación entre ITD, la intensidad del sonido y la determinación de la dirección de su fuente. Hay teorías que existen como una especie de axiomas, generalmente aceptados por la comunidad científica. Por lo tanto, se decidió probar en detalle todas las teorías, modelos y posibles mecanismos de percepción auditiva en la práctica.

El primer experimento se basó en un paradigma psicofísico que permitió el estudio de la lateralización basada en ITD en función de la intensidad del sonido en un grupo de diez participantes con audición normal.

Localización del sonido: cómo el cerebro reconoce las fuentes de sonido
Imagen #2

Las fuentes de sonido se sintonizaron específicamente para cubrir la mayor parte del rango de frecuencia dentro del cual los humanos pueden reconocer ITD, es decir. de 300 a 1200 Hz ().

En cada prueba, el oyente tenía que indicar la lateralidad percibida, medida en función del nivel de sensación, en un rango de valores ITD de 375 a 375 ms. Para determinar el efecto de la intensidad del sonido, se utilizó un modelo de efectos mixtos no lineales (NMLE) que incluía intensidades de sonido fijas y aleatorias.

Programar 2V demuestra una lateralización estimada con ruido espectralmente plano a dos intensidades de sonido para un oyente representativo. y el horario 2S muestra los datos sin procesar (círculos) y el modelo NMLE ajustado (líneas) de todos los oyentes.

Localización del sonido: cómo el cerebro reconoce las fuentes de sonido
Tabla No. 1

La tabla anterior muestra todos los parámetros NLME. Se puede observar que la lateralidad percibida aumentó con el aumento de la ITD, como esperaban los científicos. A medida que la intensidad del sonido disminuyó, la percepción se desplazó cada vez más hacia la línea media (recuadro en el gráfico 2C).

Estas tendencias fueron respaldadas por el modelo NLME, que mostró efectos significativos de ITD y la intensidad del sonido en el grado máximo de lateralidad, respaldando el modelo de diferencias interhemisféricas.

Además, los umbrales audiométricos medios para tonos puros tuvieron poco efecto sobre la lateralidad percibida. Pero la intensidad del sonido no afectó significativamente los indicadores de las funciones psicométricas.

El objetivo principal del segundo experimento fue determinar cómo cambiarían los resultados obtenidos en el experimento anterior al tener en cuenta las características espectrales de los estímulos (sonidos). La necesidad de realizar pruebas de ruido espectralmente plano a baja intensidad de sonido es que partes del espectro pueden no ser audibles y esto puede afectar la determinación de la dirección del sonido. En consecuencia, los resultados del primer experimento pueden confundirse con el hecho de que el ancho de la parte audible del espectro puede disminuir al disminuir la intensidad del sonido.

Por lo tanto, se decidió realizar otro experimento, pero utilizando el método inverso. Ponderado A* ruido.

Pesaje A* se aplica a los niveles de sonido para tener en cuenta el volumen relativo percibido por el oído humano, ya que el oído es menos sensible a las frecuencias de sonido bajas. La ponderación A se implementa sumando aritméticamente una tabla de valores enumerados en bandas de octava a los niveles de presión sonora medidos en dB.

en el gráfico 2D muestra los datos sin procesar (círculos) y los datos ajustados al modelo NMLE (líneas) de todos los participantes en el experimento.

El análisis de los datos mostró que cuando todas las partes del sonido son aproximadamente igualmente audibles (tanto en la primera como en la segunda prueba), la lateralidad percibida y la pendiente en el gráfico que explica el cambio en la lateralidad con ITD disminuyen al disminuir la intensidad del sonido.

Así, los resultados del segundo experimento confirmaron los resultados del primero. Es decir, en la práctica se ha demostrado que el modelo propuesto allá por 1948 por Jeffress no es correcto.

Resulta que la localización del sonido empeora a medida que disminuye la intensidad del sonido, y Jeffress creía que los humanos perciben y procesan los sonidos de la misma manera, independientemente de su intensidad.

Para un conocimiento más detallado de los matices del estudio, recomiendo mirar informe de los científicos.

El acto final

Los supuestos teóricos y los experimentos prácticos que los confirman han demostrado que las neuronas del cerebro de los mamíferos se activan a diferentes velocidades dependiendo de la dirección de la señal sonora. Luego, el cerebro compara estas velocidades entre todas las neuronas involucradas en el proceso para construir dinámicamente un mapa del entorno sonoro.

En realidad, el modelo de Jeffresson no es 100% erróneo, ya que puede usarse para describir perfectamente la localización de la fuente de sonido en las lechuzas. Sí, para las lechuzas no importa la intensidad del sonido, en cualquier caso, ellas determinarán la posición de su fuente. Sin embargo, este modelo no funciona con monos rhesus, como han demostrado experimentos anteriores. Por tanto, este modelo de Jeffresson no puede describir la localización de los sonidos para todos los seres vivos.

Los experimentos con participantes humanos han confirmado una vez más que la localización del sonido ocurre de manera diferente en diferentes organismos. Muchos de los participantes no pudieron determinar correctamente la posición de la fuente de las señales sonoras debido a la baja intensidad de los sonidos.

Los científicos creen que su trabajo muestra ciertas similitudes entre cómo vemos y cómo oímos. Ambos procesos están asociados a la velocidad de las neuronas en diferentes partes del cerebro, así como a la valoración de esta diferencia para determinar tanto la posición de los objetos que vemos en el espacio como la posición de la fuente del sonido que escuchamos.

En el futuro, los investigadores llevarán a cabo una serie de experimentos para examinar con más detalle la conexión entre el oído y la visión humanos, lo que nos permitirá comprender mejor cómo exactamente nuestro cerebro construye dinámicamente un mapa del mundo que nos rodea.

¡Gracias por su atención, manténganse curiosos y que tengan una excelente semana para todos! 🙂

Gracias por estar con nosotros. ¿Te gustan nuestros artículos? ¿Quieres ver más contenido interesante? Apóyanos haciendo un pedido o recomendándonos a amigos, VPS en la nube para desarrolladores desde $4.99, 30% de descuento para usuarios de Habr en un análogo único de servidores de nivel de entrada, que fue inventado por nosotros para usted: Toda la verdad sobre VPS (KVM) E5-2650 v4 (6 Cores) 10GB DDR4 240GB SSD 1Gbps desde $20 o como compartir servidor? (disponible con RAID1 y RAID10, hasta 24 núcleos y hasta 40GB DDR4).

Dell R730xd 2 veces más barato? Solo aqui 2 x Intel TetraDeca-Core Xeon 2x E5-2697v3 2.6GHz 14C 64GB DDR4 4x960GB SSD 1Gbps 100 TV desde $199 ¡en los Paises Bajos! Dell R420 - 2x E5-2430 2.2Ghz 6C 128GB DDR3 2x960GB SSD 1Gbps 100TB - ¡desde $99! Leer acerca de Cómo construir infraestructura corp. clase con el uso de servidores Dell R730xd E5-2650 v4 por valor de 9000 euros por un centavo?

Fuente: habr.com

Añadir un comentario