Google ha lanzado diferentes aplicaciones para teléfonos móviles enfocadas a mejorar la accesibilidad de las personas con algún tipo de discapacidad que les impide tener un teléfono móvil al uso común.
A medida que mejoran los terminales en términos de hardware, también evolucionan estas aplicaciones de accesibilidad. La última lanzada por Google es una prueba de ello. La compañía ha desarrollado una aplicación bajo el nombre de Look to Speak que permite a las personas comunicarse a través de sus ojos.
Esta plataforma podría ayudar a los pacientes que padecen deficiencias motoras y del habla a comunicarse con parientes y amigos gracias a un teléfono accesible que se puede colocar en cualquier lugar, en lugar de los dispositivos usados de forma tradicional, más costosos y difíciles de transportar. La aplicación está disponible para Android 9 o versiones posteriores y también para teléfonos Android One.
Google ha trabajado junto al terapeuta del habla y el lenguaje Richard Cave en este proyecto, convirtiendo la tecnología de la mirada que funciona en computadoras en una aplicación móvil disponible para descargar en Play Store de forma gratuita.
A través de la cámara frontal del teléfono, Look to Speak puede interpretar el movimiento ocular de una persona y traducirlo en acciones en la pantalla. La interfaz de usuario está formada por tres paneles: uno a la izquierda, otro a la derecha y otro en la parte superior.
Al mirar hacia la izquierda, la derecha y hacia arriba, el usuario puede elegir entre varias frases escritas previamente y confirmar selecciones. Todo el procesamiento tiene lugar en el dispositivo y el teléfono pronunciará la frase elegida en voz alta para que el resto de personas puedan escucharla. Google ha creado un tutorial y una guía que enseña a las personas a usar la aplicación, así como ayuda a los usuarios con impedimentos del habla y motores a comenzar.
Las aplicaciones como Look to Speak podrían funcionar mejor en entornos donde la tecnología de la mirada ocular podría no haber estado disponible anteriormente. Los teléfonos Android se pueden configurar fácilmente en una variedad de casos sin necesidad de otros dispositivos, incluidos entornos al aire libre, tránsito o incluso la ducha.
Project Guideline, otra iniciativa de Google para la inclusión digital
Un sistema basado en inteligencia artificial desarrollado por investigadores de Google permite a personas con visión reducida correr tan sólo con la asistencia de un teléfono móvil.
El grupo de investigadores trabajó junto a Thomas Panek, corredor y presidente de la asociación Guiding Eyes for the Blind para el desarrollo de este primer prototipo que se basa en aprendizaje automático y visión computarizada.
La iniciativa llamada Project Guideline, ya se probó con éxito y está en una etapa incipiente. La idea es continuar con el desarrollo y que esta tecnología llegue a más personas.
Panek, perdió la visión a raíz de una enfermedad congénita, y participó de un hackatón en Google que se hizo el año pasado y postuló la siguiente inquietud: ¿qué tal idear un sistema de asistencia para que un corredor ciego pueda realizar esta actividad de forma independiente, sin tener que recurrir a una persona o perro lazarrillo como guía? ¿Podía la tecnología resolver este problema?
Según contó Panek en la publicación difundida en el blog de su fundación y en el de Google, desarrollaron un prototipo que requiere el uso de un teléfono atado en la cintura y auriculares. La cámara del móvil buscaba una guía física en el suelo y envía señales de audio según la posición en la que está el usuario.
"Si me desplazaba hacia la izquierda de la línea, el sonido se haría más fuerte y más disonante en mi oído izquierdo. Si me desviaba hacia la derecha, pasaría lo mismo, pero en mi oído derecho. En unos meses, estábamos listos para probarlo en una pista ovalada de interior. Después de algunos ajustes, pude correr ocho vueltas. Fue una distancia corta, y todo con mis compañeros de equipo de Google cerca, pero fue la primera milla sin guía que corrí en décadas", contó Panek.
El sistema necesita un teléfono móvil von el sistema operativo Android que integra un algoritmo que detecta una línea pintada en el suelo para este propósito; y puede identificar si la línea se encuentra a la derecha, izquierda o en su centro y en función de eso envía señales auditivas al corredor para indicarle si se está desviando hacia uno u otro lado de la línea.
Prueba exitosa
El paso siguiente fue probar el equipo en un entorno abierto, como un parque, lo cual generó nuevos desafíos y varios meses de trabajo, ya que en el exterior entran en juego otras variables: las hojas caídas que pueden tapar la línea, así como las luces y sombras que se dan en diferentes tramos pueden confundir a la inteligencia artificial.
Otro de los puntos fue evitar depender de una conexión wifi o de datos para que el sistema funcionara. O sea que adaptaron el modelo de aprendizaje automático para que hiciera todo el procesamiento de datos en el dispositivo y tuvieron que asegurarse que el procesamiento de información fuera lo más rápido posible teniendo en cuenta, ya que tiene que ofrecer respuestas en tiempo real para guiar al corredor mientras realiza su actividad.
El resultado fue exitoso. Panek probó el prototipo en un bosque y sintió la libertad de correr sin la ayuda de su perro ni de ningún otro tipo más que la de las guías auditivas que recibía por los auriculares. "Es la primera vez que corro solo en décadas, en el bosque, por mi cuenta, nunca pensé que lo lograríamos", dijo.
El sistema se probó también con otros voluntarios y próximamente, Panek va a utilizar este dispositivo para participar de la carrera de 5K Virtual Run for Thanks 5K en el Central Park de New York.