Fuente: Diario de Burgos
El área de Realidad Virtual del ITCL desarrolla un programa para la conversión de textos en lenguaje de signos que permitirá hacer accesible para los sordos las páginas web, el transporte público o la información administrativa
Nuestro mundo, el que hemos construido sobre una cantidad ingente de datos y letras, resulta inaccesible para algunos grupos de población. Los ciegos, por ejemplo, se pierden la mitad del universo audiovisual. Los sordos carecen de la otra mitad, de tanta información como los invidentes, y sin embargo en muchos casos son los grandes olvidados cuando se habla de la accesibilidad informativa.
A quienes no pueden oír les cuesta más leer, y para ellos el Instituto Tecnológico de Castilla y León (ITCL) está diseñando un traductor a lenguaje de signos que puede revolucionar su manera de recibir la información. Esta fundación con sede en el polígono de Villalonquéjar lleva casi dos años trabajando con la empresa cordobesa Xul Comunicación en el proyecto TextoSign, financiado por la Junta de Andalucía y el Fondo Europeo de Desarrollo Regional, y acaba de ganar un premio en la prestigiosa feria SIMO Network después de haber quedado finalista entre 10 iniciativas de innovación.
Las virtudes se ‘personalizan’ en Maya, un robot diseñado por ordenador y en tres dimensiones, con apariencia de una chica joven, obra de un equipo de cuatro personas. Programadores y animadores están coordinados por Carlos Alberto Catalina, responsable de la unidad de Realidad Virtual y Realidad Aumentada del ITCL, quien explica que el mérito de Maya reside en su expresividad.
«Ya existen otros traductores pero eran demasiado robóticos. Las transiciones entre las palabras resultaban forzadas y dificultaban la comprensión para las personas sordas. Con Maya (nombre elegido entre los amigos de la página de Facebook de Textosign) intentamos ser lo más realistas posibles y que sus gestos sean fluidos», apunta Catalina.
Para ello es necesario que mueva no solo los labios o los ojos, sino también la lengua, los pómulos, la nariz, el cuello y por supuesto las manos y los brazos. Todo debe ser lo más natural posible, lo más parecido a un humano, pero sin cansancio y con capacidad para descifrar todo tipo de textos.
Con la colaboración de la empresa ‘Más que signos’, encargada de velar por la pureza del lenguaje y su corrección gramática, llevan ya traducidas alrededor de 900 palabras y quieren llegar en los próximos tres meses a las 1.800 para poder empezar a hacer traducciones con un mínimo de fiabilidad. Para el horizonte del medio plazo queda el reto de alcanzar los entre 4.000 y 6.000 signos de los que se compone el lenguaje gestual en su versión española estándar, pues existen diferencias entre países e incluso entre regiones a la hora de emplear los signos.
«Nuestro trabajo puede tener múltiples aplicaciones», explica el responsable de Realidad Virtual. «Desde traducir páginas web enteras mediante la aparición de un vídeo en un lateral de la pantalla a información de las administraciones», pensando en las estaciones de Renfe o los aeropuertos de Aena o cualquier oficina pública. Pero también interesaría a las entidades bancarias, por ejemplo, que tendrían así una forma mejor de comunicarse con los clientes.
POSIBLES APLICACIONES
Si la idea triunfa, lo normal sería que dentro de unos años viéramos a Maya incorporada a muchos portales on-line, en máquinas situadas en terminales ferroviarias o aeroportuarias o completando las ventanillas de atención al público de multitud de entidades. En ese caso, los sordos tendrán a su mejor ayudante en un robot nacido en Burgos.