Público
Público

CIENCIA Cómo hacer que una máquina reconozca la música casi como tú y como yo 

Un grupo de investigadores del MIT ha creado el primer modelo que puede replicar el comportamiento humano en ciertas tareas auditivas, como la identificación de un género musical. Esto sirve para comprender mejor cómo escuchamos.

Imagen de unos auriculares. PXHERE (CC0)

Público

El uso de un sistema de aprendizaje automático conocido como red neuronal profunda ha permitido a un grupo de investigadores del Instituto Tecnológico de Massachusetts (MIT) crear una forma de recrear cómo nuestro cerebro capta, procesa e identifica sonidos complejos.

Este modelo, que consiste en muchas capas de procesadores que pueden ser ‘entrenados’ con grandes volúmenes de datos para realizar tareas específicas, fue utilizado por los investigadores para arrojar luz sobre cómo el cerebro humano puede realizar determinadas tareas. Y este modelo ofrece pruebas, además de que la parte de la corteza cerebral que se encarga de procesar el sonido se organiza jerárquicamente, por capas.

Los investigadores del MIT entrenaron su red neuronal para realizar dos tareas auditivas, una sobre el habla y otra sobre música. Para la tarea del habla, los investigadores proporcionaron a su modelo miles de grabaciones de dos segundos de una persona hablando. La tarea era identificar una palabra en mitad del corte. Para la tarea de música, se pidió al modelo que identificara el género de un clip de música, también de dos segundos. Cada clip también incluía ruido de fondo para hacer la tarea más realista (y más difícil). Después de muchos miles de ejemplos, el modelo aprendió a realizar las tareas con la misma precisión que un oyente humano.

En una nota, los autores de este estudio publicado en la revista Neuron afirman que estos modelos plantean por primera vez la posibilidad de crear sistemas que puedan realizar importantes tareas sensoriales humanas, y a un a nivel humano. "Históricamente, este tipo de proceso sensorial ha sido difícil de entender, en parte porque no hemos tenido una base teórica muy clara ni una buena forma de desarrollar modelos", dice Josh McDermott, profesor asistente de Neurociencia en el Departamento de Cerebro y Ciencias Cognitivas del MIT y uno de los autores del estudio.

En un sistema jerárquico, una serie de regiones cerebrales realiza diferentes tipos de cálculos sobre la información sensorial a medida que fluye a través del sistema. Es conocido que la corteza visual tiene este tipo de organización. Sin embargo, hasta ahora ha sido difícil probar si este tipo de organización también existe en la corteza auditiva, en parte porque no ha habido buenos modelos que puedan replicar el comportamiento auditivo humano.

"Pensamos que si pudiéramos construir un modelo que pudiese hacer algunas de las cosas que hacen las personas, seríamos capaces de comparar diferentes etapas del modelo con diferentes partes del cerebro y obtener alguna prueba de que esas partes del cerebro pudiesen estar organizadas jerárquicamente ", dice McDermott.

Según la nota del MIT, en los últimos cinco años, la mayor capacidad computacional de los ordenadores y los avances tecnológicos han hecho posible el uso de redes neuronales para realizar tareas difíciles en el mundo real, y se han convertido en el enfoque estándar en muchas aplicaciones de ingeniería. Paralelamente, algunos neurocientíficos han reconsiderado la posibilidad de que estos sistemas puedan ser utilizados para modelar el cerebro humano.

¿Te ha resultado interesante esta noticia?