Los móviles Android podrán traducir el lenguaje de signos muy pronto

Gonzalo Mendo

31 agosto, 2019

Feature image

Los smartphones han supuesto un gran avance para una sociedad llena de necesidades que busca el mayor número de facilidades posibles en la tecnología. Actualmente, un solo móvil puede utilizarse como cámara de fotos, GPS, traductor, escáner… Muchas son las novedades que se han integrado en unos terminales cada vez más completos cuyo objetivo se basa en cumplir con las expectativas de las personas. Hoy hablamos de una de esas integraciones que merece la pena resaltar: la lectura del lenguaje de signos. 

Todas las personas del mundo son diferentes entre sí y la tecnología debería estar adaptada para todas ellas. Es por ello que Android está trabajando en una nueva funcionalidad que puede ser de mucha utilidad para las personas con problemas auditivos que se comuniquen mediante el lenguaje de signos. Se trata de una nueva función que permitirá traducir el lenguaje de señas por medio de la realidad aumentada de Google Maps. Te contamos todos los detalles.

Google prepara sus móviles para la inclusión

En algunas ocasiones, Google dedica su tiempo a proyectos tan importantes como el cuidado del medio ambiente o la prevención de los hackeos en los terminales. En esta ocasión hablamos de un nuevo proyecto que basado en la traducción del lenguaje de signos desde cualquier smartphone. Valentin Bazarevsky y Fan Zhang son los ingenieros que están al frente de una investigación con la que los terminales podrán percibir la forma y el movimiento de las manos con el objetivo de «mejorar la experiencia de los usuarios en una gran variedad de dominios y plataformas tecnológicas».

En general, se trata de un nuevo sistema de realidad aumentada que es capaz de mostrar un seguimiento continuo de las manos para intentar traducir el lenguaje de señas. De esta forma, la herramienta será capaz de detectar un total de 21 puntos clave 3D de cada mano para que se pueda ir traduciendo en tiempo real en nuestros teléfonos móviles. Algo similar a lo que hemos podido ver con el control de gestos del LG G8 y que puede acercarse a la nueva funcionalidad que se incorporará a los nuevos Pixel 4. Con la finalidad de evitar posibles errores, Google ha incluido un total de 3.000 imágenes de diferentes manos y posturas para mejorar el aprendizaje automático de su nueva herramienta.

La compañía de la gran G ya ha probado esta herramienta en algunos países y culturas integrando símbolos tan universales como el «Pulgar arriba», puño cerrado, «OK», «Rock» y «Spiderman». Por el momento, todo este proyecto está en pleno proceso de desarrollo y desde Google podrían encontrar un problema a la hora de detectar las expresiones faciales, algo imprescindible en el lenguaje de signos. Sin embargo, las posibilidades son muy amplias y parece puede que dentro de un tiempo todos los móviles Android podrán traducir el lenguaje de señas.

Fuente | Google

Comunidad Android

¿Preparado para unirte?