¿Ir al supermercado es una tarea sencilla? Elegir los productos, agregarlos al carro, ir a la caja y pagar parece una actividad no muy difícil para muchas personas. ¿Cómo es esta situación para quienes tienen discapacidad visual?
Sebastián Romero, de 43 años, es ciego desde su nacimiento. Él se encarga de hacer los mandados, pero no puede hacerlo sin la ayuda de otra persona y esto lo pone incómodo. "Es abusar demasiado de la generosidad de las personas", expresó. Se siente "muy cargoso" preguntando ¿Qué marcas hay? ¿Cuánto cuesta este producto? y un sinfín de cuestiones más.
Motivado por la idea de vincular la tecnología con causas sociales, Sebastián Rodríguez, un programador informático y diseñador de interfaz, se sensibilizó por esta temática y montó un proyecto personal llamado Asistente Visual. Se trata de una idea sin fines de lucro con el objetivo de brindarle mayor autonomía a personas con esta discapacidad.
Esto se lograría a través de una aplicación para smartphone y de cartelería con códigos QR: "La persona usando el celular a una altura media encontraría los carteles que tendrían mensajes incrustados. "Por ejemplo, le diría cuáles son los productos en cada góndola", explicó Rodríguez.
Primera prueba de Asistente Visual
Según dijo el diseñador, el modelo de la aplicación está basado en Google Lens, una aplicación creada por el gigante informático que funciona utilizando la cámara del celular para reconocer los objetos que un usuario tiene delante suyo. Si bien tiene prestaciones poderosas, no cuenta con la función text-speech, es decir, no indica en voz alta lo que la cámara lee.
Ahí está el diferencial con la propuesta de Rodríguez, que reproducirá lo que el usuario ve como si tuviese un relator que le va contando los objetos que hay a su alrededor.
Por su parte, Romero remarcó que el desarrollo de esta aplicación le brindaría libertad a la hora de hacer compras, algo que ahora solo consigue a través de ciertas páginas web. En este sentido, aclaró que hay sitios online de supermercados "muy buenos" que permiten comprar "como si estuvieras en el comercio", pero hay otros que no, en los que la diferencia con la presencialidad es "abismal".
Siguiendo esta línea aseguró que tiene las mejores expectativas de Asistente Visual porque no existe una aplicación "de este calibre" y entiende que sería "muy útil" para su día a día.
Los avances de Asistente Visual
El proyecto Asistente Visual está en etapa de investigación. Rodríguez, junto con su equipo compuesto por la psicóloga Andrea Cabrera y el diseñador web Leandro Gutiérrez, está estudiando la tecnología que hay disponible para llevar a cabo el proyecto y qué limitantes presenta.
El punto de partida para crear la aplicación es Firebase, una plataforma en la nube cuya función esencial es hacer más sencilla la creación tanto de aplicaciones web como para móviles, procurando que el trabajo sea más rápido, sin renunciar a la calidad requerida. En el caso de Asistente Visual la plataforma sería en teléfonos porque es imprescindible que los individuos puedan llevarla a donde necesiten.
"Hoy en día los celulares nos brindan herramientas que de otra manera no tendríamos", sostuvo Romero. También agregó que este dispositivo se ha convertido en los "ojos" de las personas ciegas, en una extensión del cuerpo que necesitan todos los días. Es por esto por lo que la aplicación no implicaría mayores complicaciones de accesibilidad: "Sería cuestión de usar un auricular y nada más".
Tampoco sería una dificultad para los establecimientos usar esta tecnología. Según explicó Rodríguez, se eligió trabajar con códigos QR porque es fácil de implementar y es barato. Se hacen con cualquier generador de QR que exista online y luego se imprime.
Equipo de desarrollo de Asistente Visual
La segunda etapa es la prueba de concepto, que Rodríguez definió como la más importante de la investigación porque mide la efectividad real de la aplicación. "Queremos usar esto como prototipo para probar el sistema y ver si realmente funciona", aseguró el diseñador.
El primer intento ya fue realizado con una aplicación muy básica en comparación de lo que se busca hacer más adelante. La primera prueba de concepto fue llevada a cabo por Romero el pasado miércoles 9 de junio en el Arocena Mall.
La evaluación se hizo dos veces. En la primera oportunidad, el hombre caminó por el shopping con el celular a una altura media, cómo le sugirieron los investigadores, pero no consiguió leer ningún código QR. Esto fue porque la cartelería estaba colocada por encima de la altura en la que el usuario tenía el celular. Para la segunda oportunidad los letreros se colocaron más abajo y los resultados fueron exitosos.
Romero recorrió todo el centro y logró acceder a la información de la mayoría de los carteles. Mientras avanzaba por el pasillo recibía mensajes como "librería El Virrey, entrada a la derecha", "baños y ascensores en los próximos cinco metros girando a la derecha" o "fin del recorrido, en diagonal a la izquierda pasillo angosto al hall principal".
Aunque estos mensajes pregrabados le permitieron ubicarse dentro del lugar sin la necesidad de que otra persona lo guíe, Romero remarcó algunos inconvenientes. Por un lado, señaló que tuvo que caminar muy lento para lograr que el celular leyera la cartelería.
Por otro lado, planteó que la aplicación lo obligaba a trasladarse por los márgenes del pasillo, lo que para él implica una gran complicación porque es donde se suelen colocar las decoraciones. Cómo respuesta, los investigadores aseguraron que lo solucionarán con un mejor desarrollo de la aplicación, que tendrá un sensor que capte los códigos de forma más distante y veloz.
Luego de la prueba, los investigadores sostuvieron que seguirán trabajando para intentar que la aplicación resulte lo más cómoda posible para las personas con discapacidad visual. Para esto está la etapa de diseño y desarrollo de la aplicación. Rodríguez aclaró que si bien tienen referencias de Google Lens, el equipo quiere trabajar con más funcionalidades. Una de ellas es ayudar a manejar el dinero, que es una gran dificultad para esta población.
"Una persona nos comentó que no podía ir sola al cajero a sacar plata porque las terminales son todas táctiles y no tienen un referente como para poder manejarlo", contó. Asimismo habló de la dificultad que representa ir a la consulta médica porque el número del turno aparece en una pantalla pero no hay ninguna referencia de sonido.
Para concluir, afirmó que "hay pila de cosas en las que estamos hasta retrocediendo en cuanto a accesibilidad y son cosas que son fáciles de solucionar, que no implican grandes esfuerzos". En un futuro, espera que Asistente Visual pueda solucionar algunas de estas complicaciones con las que las personas ciegas conviven.
La revolución de los celulares y las aplicaciones
"La tecnología me cambió la vida", aseveró Romero. El hombre de 43 años es ciego desde su nacimiento y gracias a los avances tecnológicos ha logrado cosas que para él eran impensadas. Antes que nada, mencionó su empleo. Actualmente trabaja en el Banco de Seguros del Estado utilizando una computadora con lector de pantalla. Además es músico, específicamente, cantante y tecladista en la banda de música tropical Super Grupo Real.
Más allá del trabajo, Romero remarcó el hecho de poder leer un mensaje por sí solo y la emoción que le generó cuando lo pudo hacer por primera vez en el año 2007: "Tener esa privacidad de poder leer tus mensajes, escribirle a tus amigos, a tu pareja, es algo indescriptible", contó. Por último, habló sobre la importancia de las aplicaciones que te ubican por la calle y dijo que si no lo tenés estás perdido, en otra dimensión.
Fuente: elobservador.com.uy