Facebook está envuelta en una disputa multimillonaria por investigar e implementar distintas prácticas correspondientes a herramientas de reconocimiento facial. Sin embargo, esto no le impide seguir trabajando en esta tecnología.
Según un informe de VentureBeat, el equipo de Facebook IA Research, desarrolló un sistema que funciona con videos en vivo. Este nuevo desarrollo permite alterar algunos rasgos faciales de los sujetos en el contenido utilizando machine learning. De esta forma, se puede engañar a la IA que está intentando identificar al sujeto.
Este tipo de tecnología existe hace rato y hay compañías que se dedican específicamente a este labor.
"El reconocimiento facial puede conducir a la pérdida de privacidad y la tecnología de reemplazo facial puede ser mal utilizada para crear videos engañosos", se lee en el reporte que explica el enfoque de la compañía, según lo citado por VentureBeat.
Nuevo Presidente, nueva agenda para la Economía del Conocimiento: lo que viene, punto por punto
"Los recientes acontecimientos mundiales relacionados con los avances y el abuso de la tecnología de reconocimiento facial invocan la necesidad de comprender métodos que aborden con éxito la desidentificación", agrega.
Tal como explica la fuente, Facebook no tiene pensado comercializar la herramienta, sino que la utilizará para "potenciar productos futuros y proteger la privacidad de los usuarios" de los deepfakes.
La industria de inteligencia artificial está trabajando actualmente en formas de combatir la propagación de las falsificaciones profundas y las herramientas cada vez más sofisticadas que se utilizan para crearlas.
Este es un método, y las compañías tecnológicas están tratando de encontrar otras herramientas, como software de detección de falsificación profunda. Además, se está intentando generar marcos regulatorios sobre cómo controlar la propagación de videos, imágenes y audio falsos.