Meta reveló la mejora de las capacidades de inteligencia artificial (IA) multimodal de las gafas Ray-Ban Stories, las cuales ahora tienen la habilidad de identificar sitios y puntos notables para brindar datos acerca de los mismos.
La compañía introdujo las Ray-Ban Stories, creadas en colaboración con la reconocida marca de lentes Ray-Ban, inicialmente en los Estados Unidos en septiembre de 2021. Luego, se pusieron a la venta en España seis meses después, a un precio de 329 euros.
Estas gafas incorporan una cámara doble de 5 MP y capacidad de grabación de video, además de ofrecer audio integrado para disfrutar de música y realizar llamadas.
También son compatibles con diversos servicios de Meta, como WhatsApp, que permite el envío de mensajes cifrados de extremo a extremo y la reproducción de respuestas de audio, entre otras funciones, así como Facebook View.
La empresa anunció a finales del año pasado la inclusión de su asistente de Meta AI en una nueva versión de sus gafas, la cual fusiona la comprensión del habla con la visión por computadora para ofrecer una visión del mundo desde la perspectiva del usuario.
Más tarde, reveló que estaba experimentando con nuevas capacidades de IA multimodal para permitir la traducción de texto en un idioma mientras el usuario lee o para generar títulos ingeniosos para las fotografías capturadas.
Realidad aumentada: Meta potenció la IA multimodal de sus gafas Ray-Ban
Ahora, la compañía comunicó que potenció la IA multimodal de este dispositivo para que pueda identificar puntos de interés "populares" y proporcionar información sobre ellos, según explicó Andrew Bosworth, director de Tecnología de Meta, en Threads.
Esto implica que, al usar las gafas inteligentes cerca del emblemático puente Golden Gate en San Francisco (Estados Unidos), el usuario recibirá datos sobre el mismo, como su nombre o su color característico.
Esta actualización está actualmente en fase beta, pero la empresa espera que esté accesible "para un público más amplio" en un futuro cercano, por lo que habilitó una lista de espera para aquellos interesados en probar esta función.
Por otro lado, el ejecutivo mencionó que, además de las mejoras centradas en la IA multimodal, Meta está continuamente mejorando la experiencia general de manos libres, incorporando comandos de voz para compartir las últimas interacciones de Meta AI en WhatsApp, Messenger y mensajes de texto.
Además, pronto será posible ajustar la velocidad de reproducción de los podcasts en la sección de Voz, permitiendo a Meta AI leerlos más lenta o rápidamente según la preferencia del usuario.
En agosto del año pasado, la empresa admitió que, antes de la llegada de la segunda generación, solo el 10% de sus compradores las utilizaba regularmente.