COMENTARIOS
ONLINE
TRÁFICO
Un sistema de aprendizaje automático procesa sonidos como lo hacemos los humanos

Usando un sistema de aprendizaje automático conocido como red neural profunda, unos investigadores han creado el primer modelo que puede replicar el rendimiento humano en tareas auditivas como el análisis del habla o identificar un género musical.

Cuando las redes neurales profundas se desarrollaron por primera vez, en la década de 1980, los neurocientíficos esperaban que tales sistemas pudieran ser utilizados pronto para modelar el cerebro humano. Sin embargo, los ordenadores de esa época no eran lo bastante potentes para construir modelos lo suficientemente grandes como para desempeñar tareas del mundo real, como el reconocimiento de objetos o del habla.

A lo largo de los últimos cinco años, los avances en la potencia de computación y en la tecnología de las redes neurales han hecho posible que dichas redes puedan llevar a cabo tareas complicadas del mundo real, y se han convertido en el enfoque estándar con el que abordar muchas aplicaciones de ingeniería. Al mismo tiempo, algunos neurocientíficos han reconsiderado la posible utilización actual o en un futuro cercano de estos sistemas para modelar el cerebro humano.

El nuevo modelo, basado en una red neural profunda, está ideado para procesar sonidos como lo hacemos los humanos. El modelo consta de muchas capas de unidades de procesamiento de información que pueden ser adiestradas con enormes volúmenes de datos para realizar tareas específicas. Ya ha sido usado por los investigadores para obtener información nueva y reveladora sobre cómo el cerebro humano puede llevar a cabo esas mismas tareas que el modelo realiza.

Unos neurocientíficos del MIT han desarrollado un sistema de aprendizaje automático que puede procesar el habla y la música de la misma manera en que lo hace el cerebro humano. (Imagen: Chelsea Turner/MIT)

El avance es obra del equipo de Josh McDermott y Alexander Kell, del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, y Daniel Yamins, de la Universidad de Stanford, ambas instituciones en Estados Unidos.

Los resultados del estudio también ofrecen evidencias de que la corteza auditiva humana está configurada con una organización jerárquica, de manera muy parecida a como lo está la corteza visual. En este tipo de configuración, la información sensorial pasa a través de sucesivas etapas de procesamiento, procesándose antes la información básica y extrayéndose en etapas posteriores características más avanzadas, como el significado de las palabras.

Fecha de creación: 26/04/2018 Fuente: noticias de la ciencia

Escribir un comentario


Aún no hay comentarios

Click aquí para suscribirte a nuestro newlsletter semanal de noticias
SUSCRÍBETE a nuestro newsletter de novedades
VIDEOTUTORIALES
¿como usar MID?