Percepción espacial asistida para mejorar la orientación de las personas con discapacidad visual

Un equipo de investigadores de la UPM trabaja en el desarrollo de un prototipo que utiliza la realidad virtual para potenciar la capacidad de percepción y cognición espacial de los usuarios y facilitar así su orientación y desplazamiento en el entorno.

20.12.2021

La discapacidad visual tiene, solo en España, una prevalencia de aproximadamente un 2.3%, de los cuales un 62.2% tiene dificultad para desplazarse. Debido a la prevalencia del problema,  durante décadas se han aportado distintas soluciones técnicas a este problema, empezando por el GPS para ciegos. Sim embargo, en los últimos años se ha constatado las interfaces lingüísticas ya no son un medio suficiente, por lo cual se requiere de otras formas de codificación de la información para la interfaz hombre-máquina.

Con este objetivo, un grupo de investigadores de la ETSI de Telecomunicación de la Universidad Politécnica de Madrid (UPM) ha unificado algunos de los principales algoritmos de sustitución y aumento sensorial en una única plataforma de realidad mixta, barata y fácilmente distribuible, con el objetivo de estudiar y potenciar la capacidad de percepción y cognición espacial de los usuarios y facilitar así su orientación y desplazamiento en el entorno.



“El prototipo desarrollado sincroniza los movimientos del usuario con los de un avatar en una réplica virtual del entorno, con latencias aproximadas de 20-60 ms. Esto permite independizar el diseño de la interfaz hombre-máquina del sistema de adquisición de información (sensores radar, sonar, etc.), ya que toda la información útil está modelada a prior”, explica Álvaro Araujo, uno de los investigadores de la UPM participantes en el trabajo.

Además de una brújula acústica y otra ayuda para la orientación, el prototipo desarrollado por los investigadores incorpora un nuevo algoritmo de sustitución sensorial multisensorial que a su vez incluye incorpora un sistema de tacto remoto y una variante del sistema “Virtual Acoustic Space”. 
“La redundancia en dicha información (tacto y oído), además de la posibilidad de percibir distancias en múltiples direcciones, ayuda a las personas con discapacidad a percibir la abstracción del entorno y ello es clave para orientarse, calcular rutas alternativas, etc”, añade el investigador de la UPM. “Para ello, se aísla la información útil para el usuario y se optimiza la codificación de dicha información en forma de estímulos táctiles y acústicos (por ahora)”, añade.

 

Hasta el momento el trabajo ofrece resultados esperanzadores. “Las pruebas realizadas concuerdan con la hipótesis de que el uso de codificaciones naturales de los estímulos es una forma eficaz y eficiente para transmitir información del entorno. Los usuarios con y sin discapacidad visual fueron capaces de desenvolverse en entornos virtuales sin tener noción alguna (a priori) sobre la naturaleza de los estímulos. Algunos incluso pudieron reconocer y ubicarse en un escenario a ciegas, con tan solo seis minutos de entrenamiento”, explica Araujo.

 

Precisamente, estos buenos resultados hacen que los investigadores hayan recibido propuestas de ciertas instituciones con la idea de desarrollar más el prototipo y poder extender su uso en un futuro. “Algunos técnicos del CTI (ONCE) nos han recomendado aplicar este dispositivo en entrenamientos de orientación y movilidad, dado que podemos simular cualquier escenario urbano, de interior, etc., e introducir a uno o más usuarios en el mismo. Un ejemplo puede ser “cruzar un paso de cebra”, caso en el que podemos introducir vehículos en movimiento perceptibles por sonido 3D, etc. Otra opción es adaptar el prototipo para guiar a los usuarios en entornos más concretos por ejemplo el interior de un centro comercial”, concluye.

Real, S.; Araujo, A. VES: A Mixed-Reality System to Assist Multisensory Spatial Perception and Cognition for Blind and Visually Impaired People. Appl. Sci. 2020, 10, 523. https://doi.org/10.3390/app10020523