Revisado por James Ives, M.Psych. (Editor)– Morten Kolbæk, estudiante de doctorado en la Universidad de Aalborg (AAU), ha desarrollado un algoritmo innovador que puede permitir a los usuarios de audífonos participar más activamente en las conversaciones en entornos ruidosos.
Para las personas con pérdida auditiva puede ser muy difícil de entender y separar las voces en entornos ruidosos. Este problema puede convertirse pronto en historia gracias a un nuevo algoritmo innovador que está diseñado para reconocer y separar voces de manera eficiente en entornos de sonido desconocidos.
LA VISIÓN SOBRE LA AUDIENCIA INTELIGENTE AYUDAS
Las personas con audición normal por lo general pueden entenderse sin esfuerzo cuando se comunican en entornos ruidosos. Sin embargo, para las personas con pérdida auditiva, es muy difícil entender y separar las voces en ambientes ruidosos, y un audífono puede ser de gran ayuda. Pero aún queda mucho camino por recorrer en lo que respecta al procesamiento general de sonido en audífonos, explica Morten Kolbæk:
– Cuando se conoce el escenario de antemano, como en ciertas configuraciones de pruebas clínicas, los algoritmos existentes ya pueden mejorar el desempeño humano cuando se trata de reconocer y distinguir a los oradores. Sin embargo, en situaciones normales de escucha sin ningún conocimiento previo, el cerebro auditivo humano sigue siendo la mejor «máquina».
Pero esto es exactamente en lo que Morten Kolbæk ha trabajado para cambiar con su nuevo algoritmo.
– Debido a su capacidad para funcionar en entornos desconocidos con voces desconocidas, la aplicabilidad de este algoritmo es mucho más fuerte de lo que hemos visto con la tecnología anterior. Es un importante paso adelante cuando se trata de resolver situaciones auditivas desafiantes en la vida cotidiana «, dice uno de los supervisores de Morten Kolbæk, Jesper Jensen, investigador principal de Oticon y profesor del Centro de Investigación de Procesamiento de Señales Acústicas (CASPR) de la AAU.
El profesor Zheng-Hua Tan, quien también está afiliado a CASPR y supervisor del proyecto, está de acuerdo en el gran potencial del algoritmo dentro de una investigación sólida.
– La clave del éxito de este algoritmo es su capacidad para aprender de los datos y luego construir modelos estadísticos poderosos que puedan representar situaciones auditivas complejas. Esto conduce a soluciones que funcionan muy bien incluso en situaciones auditivas nuevas y desconocidas, explica Zheng-Hua Tan.
REDUCCIÓN DE RUIDO Y SEPARACIÓN DE DISCURSO
Específicamente, el proyecto de doctorado de Morten Kolbæk ha abordado dos escenarios de audición diferentes pero bien conocidos.
La primera pista se propone resolver los desafíos de las conversaciones individuales en espacios ruidosos como las cabinas de automóviles. Los usuarios de audífonos enfrentan tales desafíos de manera regular.
– Para resolverlos, hemos desarrollado algoritmos que pueden amplificar el sonido del altavoz y reducir significativamente el ruido sin ningún conocimiento previo sobre la situación auditiva. Según explica Morten Kolbæk, los audífonos actuales están preprogramados para una serie de situaciones diferentes, pero en la vida real, el entorno cambia constantemente y requiere un audífono que pueda leer la situación específica al instante.
La segunda pista del proyecto gira en torno a la separación del habla. Este escenario involucra a varios oradores, y el usuario del audífono puede estar interesado en escuchar algunos o todos ellos. La solución es un algoritmo que puede separar las voces y reducir el ruido. Esta pista se puede considerar una extensión de la primera pista, pero ahora con dos o más voces.
– Se puede decir que Morten descubrió que al modificar algunas cosas aquí y allá, el algoritmo funciona con varios altavoces desconocidos en entornos ruidosos. Las dos pistas de investigación de Morten son significativas y han atraído mucha atención, dice Jesper Jensen.
REDES NEURALES PROFUNDAS
El método utilizado para crear los algoritmos se denomina «aprendizaje profundo», que se incluye en la categoría de aprendizaje automático. Más específicamente, Morten Kolbæk ha trabajado con redes neuronales profundas, un tipo de algoritmo que entrena al proporcionarle ejemplos de las señales que encontrará en el mundo real.
– Si, por ejemplo, hablamos de voz en ruido, le proporciona al algoritmo un ejemplo de una voz en un entorno ruidoso y una de las voces sin ningún ruido. De esta manera, el algoritmo aprende cómo procesar la señal ruidosa para lograr una señal de voz clara. Alimentar la red con miles de ejemplos, y durante este proceso, aprenderá cómo procesar una voz determinada en un entorno realista, explica Jesper Jensen.
– El poder del aprendizaje profundo proviene de su estructura jerárquica que es capaz de transformar señales de voz ruidosas o mixtas en voces limpias o separadas a través del procesamiento capa por capa. El uso generalizado del aprendizaje profundo en la actualidad se debe a tres factores principales: el poder de cómputo cada vez mayor, la creciente cantidad de big data para algoritmos de entrenamiento y métodos novedosos para entrenar redes neuronales profundas, dice Zheng-Hua Tan.
Una computadora de detrás de la oreja
Una cosa es desarrollar el algoritmo, otra es hacer que funcione en un audífono real. Actualmente, el algoritmo de Morten Kolbæk para la separación del habla solo funciona en una escala mayor.
– Cuando se trata de audífonos, el desafío es hacer que la tecnología funcione en una computadora pequeña detrás del oído. Y en este momento, el algoritmo de Morten requiere demasiado espacio para esto. Incluso si el algoritmo de Mortens puede separar varias voces desconocidas entre sí, no es capaz de elegir qué voz presentar al usuario del audífono. Por lo tanto, hay algunos problemas prácticos que debemos resolver antes de poder introducirlos en una solución para audífonos. Sin embargo, lo más importante es que estos problemas ahora parecen solucionables.
EL FENÓMENO DEL PARTIDO DEL CÓCTEL
Las personas con audición normal a menudo son capaces de concentrarse en un orador de interés, incluso en situaciones acústicamente difíciles donde otras personas hablan simultáneamente. Conocido como el fenómeno del cóctel, el problema ha generado un área de investigación muy activa sobre cómo el cerebro humano es capaz de resolver este problema tan bien. Con este proyecto de doctorado, estamos un paso más cerca de resolver este problema, explica Jesper Jensen:
– A veces escuchas que el problema del cóctel ha sido resuelto. Este aún no es el caso. Si el entorno y las voces son completamente desconocidos, como ocurre a menudo en el mundo real, la tecnología actual simplemente no puede coincidir con el cerebro humano, que funciona extremadamente bien en entornos desconocidos. Sin embargo, dice que el algoritmo de Morten es un paso importante para lograr que las máquinas funcionen y ayuden a las personas con audición normal y aquellas con pérdida auditiva en dichos entornos.
Vía: News-medical – Fuentes: news.aau.dk