
Cuando las ondas de sonido alcanzan el pabellón interno, las neuronas allí eligen las vibraciones y alertan al cerebro. Codificado en sus señales hay una gran cantidad de información que nos permite seguir conversaciones, explorar voces familiares, apreciar la música y hallar rápidamente un teléfono sonando o rezumar.
Las neuronas envían señales emitiendo picos: breves cambios en el voltaje que se propagan a lo desprendido de las fibras nerviosas, además conocidas como potenciales de influencia. Sorprendentemente, las neuronas auditivas pueden disparar cientos de picos por segundo, y tiempo sus picos con exquisita precisión para que coincidan con las oscilaciones de las ondas de sonido entrantes.
Con nuevos y poderosos modelos de recital humana, los científicos del McGovern Institute for Brain Research del MIT han determinado que este momento preciso es positivo para algunas de las formas más importantes en que damos sentido a la información auditiva, incluido el examen de voces y la posición de los sonidos.
Los hallazgos de acercamiento hendido, reportado el 4 de diciembre en el diario Comunicaciones de la naturalezaMuestre cómo el educación forzoso puede ayudar a los neurocientíficos a comprender cómo el cerebro usa información auditiva en el mundo efectivo. Profesor del MIT e investigador de McGovern Josh McDermottquien dirigió la investigación, explica que los modelos de los investigadores mejores de su equipo para estudiar las consecuencias de los diferentes tipos de discapacidad auditiva y diseñar intervenciones más efectivas.
Ciencia del sonido
Las señales auditivas del sistema nervioso están cronometrados de guisa tan precisa que los investigadores han sospechado durante mucho tiempo que el tiempo es importante para nuestra percepción del sonido. Las ondas de sonido oscilan a las tasas que determinan su tono: los sonidos bajos en agudas viajan en ondas lentas, mientras que las ondas de sonido agudas oscilan con más frecuencia. El nervadura auditivo que transmite información de las células ciliadas que detectan el sonido en el pabellón al cerebro genera picos eléctricos que corresponden a la frecuencia de estas oscilaciones. «Los potenciales de influencia en un nervadura auditivo se disparan en puntos muy particular en el tiempo en relación con los picos en la forma de onda de estímulo», explica McDermott, quien además es patriarca asociado del Sección de Ciencias del Cerebro y Cognitivas del MIT.
Esta relación, conocida como asedio de etapa, requiere que las neuronas paseen sus picos con precisión de sub-milisegundos. Pero los científicos no saben en realidad cuán informativos son estos patrones temporales para el cerebro. Más allá de ser científicamente intrigante, dice McDermott, la pregunta tiene importantes implicaciones clínicas: «Si desea diseñar una prótesis que proporcione señales eléctricas al cerebro para reproducir la función del pabellón, es posible que sea congruo importante memorizar qué tipos de información en el pabellón corriente importan», dice.
Esto ha sido difícil de estudiar experimentalmente; Los modelos animales no pueden ofrecer mucha información sobre cómo los extractos del cerebro humano estructuran en el habla o la música, y el nervadura auditivo es inaccesible para el estudio en humanos. Entonces McDermott y el estudiante reconocido Mark Saddler PhD ’24 recurrieron a redes neuronales artificiales.
Audiencia químico
Los neurocientíficos han utilizado durante mucho tiempo modelos computacionales para explorar cómo la información sensorial podría ser decodificada por el cerebro, pero hasta los avances recientes en la potencia informática y los métodos de educación forzoso, estos modelos se limitaron a fingir tareas simples. «Uno de los problemas con estos modelos anteriores es que a menudo son demasiado buenos», dice Saddler, quien ahora se encuentra en la Universidad Técnica de Dinamarca. Por ejemplo, un maniquí computacional encargado de identificar el tono más detención en un par de tonos simples es probable que funcione mejor que las personas a las que se les pide que hagan lo mismo. «Este no es el tipo de tarea que hacemos todos los días al escuchar», señala Saddler. «El cerebro no está optimizado para resolver esta tarea muy químico». Este desajuste limitó las ideas que podrían extraerse de esta gestación preliminar de modelos.
Para comprender mejor el cerebro, Saddler y McDermott querían desafiar a un maniquí de recital para hacer cosas para las que las personas usan su recital en el mundo efectivo, como explorar palabras y voces. Eso significaba desarrollar una red neuronal químico para fingir las partes del cerebro que reciben aportes del pabellón. La red recibió información de unas 32,000 neuronas sensoriales de detección de sonido simuladas y luego se optimizó para varias tareas del mundo efectivo.
Los investigadores mostraron que su maniquí replicaba proporcionadamente la recital humana, mejor que cualquier maniquí preliminar de comportamiento auditivo, dice McDermott. En una prueba, se le pidió a la red neuronal químico que reconociera palabras y voces internamente de docenas de tipos de ruido de fondo, desde el zumbido de una cabina de avión hasta aplausos entusiastas. En cada condición, el maniquí funcionó de guisa muy similar a los humanos.
Sin bloqueo, cuando el equipo degradó el momento de los picos en el pabellón simulado, su maniquí ya no podría igualar la capacidad de los humanos para explorar voces o identificar las ubicaciones de los sonidos. Por ejemplo, mientras que el equipo de McDermott había demostrado previamente que las personas usan tono para ayudarlos a identificar las voces de las personas, el maniquí reveló que esta sagacidad se pierde sin señales cronometradas con precisión. «Necesita un momento de pico congruo preciso para tener en cuenta el comportamiento humano y tener un buen desempeño en la tarea», dice Saddler. Eso sugiere que el cerebro usa señales auditivas cronometradas con precisión porque ayudan a estos aspectos prácticos de la recital.
Los hallazgos del equipo demuestran cómo las redes neuronales artificiales pueden ayudar a los neurocientíficos a comprender cómo la información extraída por el pabellón influye en nuestra percepción del mundo, tanto cuando la recital está intacta como cuando se ve afectada. «La capacidad de vincular patrones de disparo en el nervadura auditivo con el comportamiento abre muchas puertas», dice McDermott.
«Ahora que tenemos estos modelos que vinculan las respuestas neuronales en el pabellón con el comportamiento auditivo, podemos preguntar:» Si simulamos diferentes tipos de pérdida auditiva, ¿qué meta tendrá eso en nuestras habilidades auditivas? «», Dice McDermott. «Eso nos ayudará a diagnosticar mejor la pérdida auditiva, y creemos que además hay extensiones de eso para ayudarnos a diseñar mejores audífonos o implantes cocleares». Por ejemplo, dice: “El implante coclear es circunscrito de varias maneras: puede hacer algunas cosas y no otras. ¿Cuál es la mejor guisa de configurar ese implante coclear para permitirle mediar los comportamientos? Puede, en principio, usar los modelos para decirle eso ”.