Con la finalidad de contribuir a la inclusión social de las personas sordas, especialistas del Centro Universitario Valle de Teotihuacán de la Universidad Autónoma del Estado de México trabajan en el procesamiento digital de la lengua de señas.

El Profesor de Tiempo Completo de este espacio universitario ubicado en el municipio mexiquense de Axapusco, José Francisco Solís Villareal, consideró que éste es un problema sumamente complejo, debido a que la lengua de señas no es universal; cambia en cada nación y a veces dentro de un mismo país hay variantes.

“La mayoría desconocemos dicha lengua y no vemos la necesidad de aprenderla. No es de dominio común y, en consecuencia, una persona sorda está muy limitada. Principalmente la manejan las personas sordas y algunos familiares. Contiene expresiones estáticas y dinámicas; es muy compleja, así que nuestra propuesta es desarrollar un sistema digital que pueda reconocer la lengua de señas”.

El líder del Cuerpo Académico “Investigación en Computación” indicó que al respecto ha habido propuestas de todo tipo, algunas muy precisas; por ejemplo, aquellas que conectan guantes o ajustan dispositivos electrónicos a las manos y de esta manera se reconocen ángulos, movimientos e, incluso, velocidad de las señas.

Sin embargo, afirmó, esto es poco práctico, debido a que la persona debe estar conectada mediante cables, lo cual provoca que a veces no se exprese de manera muy natural.

Detalló que su propuesta consiste en hacer el reconocimiento de los movimientos de la mano, frente a una cámara multiespectral, con la finalidad –por ejemplo- de separar la información de la mano del fondo, que aunque sea del mismo color o parecido al de la piel, registrará una temperatura distinta.

“Para este desarrollo primero probamos la tecnología del dispositivo de los videojuegos Kinect. En el laboratorio todo salió bien, el reconocimiento fue el ideal; sin embargo, no ocurrió así en exteriores, así que abandonamos este dispositivo”, abundó.

Trabajar con la cámara multiespectral, explicó, nos ha llevado más tiempo y es más desafiante porque en el cambio de un signo a otro hay muchos movimientos que no significan nada, pero que la cámara toma, así que tuvimos que entrenar al sistema para que entienda que la mayor cantidad de movimientos no están expresando nada hasta que lleguen a los que sí significan.

Consideró que las personas sordas tienen una dependencia muy fuerte hacia algún familiar que les hace la traducción y, por ejemplo, cuando quieren abrir una cuenta de banco o sacar la licencia de manejo o simplemente interactuar con quien los atiende necesitan de ese familiar. “Finalmente, pueden hacer su trámite, pero pierden privacidad”.

Señaló que la apuesta de este sistema es que, por ejemplo, en donde se sacan las credenciales de elector o licencias o donde se realiza algún trámite bancario la persona sorda no dependa de algún familiar.

José Francisco Solís Villareal aseveró que el sistema en el que trabaja en conjunto con los investigadores David Martínez Martínez y Oscar Espinoza Ortega, así como expertos y estudiantes de la Universidad Politécnica de Tulancingo, es mucho más complejo, ya que el problema a resolver es abierto y nadie lo ha resuelto por completo.

Puntualizó que por ahora trabajan en el reconocimiento en tiempo real, pero tienen límites con respecto al poder de cómputo. Queremos encontrar el algoritmo que resuelva el problema, pero tenemos que ser más eficientes y optimizar la técnica para que el costo computacional sea menor.