Cuando la inteligencia artificial se emplea con propósitos favorables, puede ser una herramienta invaluable para mejorar nuestras actividades diarias y laborales.
Sin embargo, existe una faceta oscura: su potencial uso malicioso.
Un ejemplo es la proliferación de 'deepfakes', que permite la suplantación de identidades en vídeos e imágenes con una precisión sorprendente. Esto llevó a casos de estafas, aprovechando la capacidad de los 'deepfakes' para engañar.
Una aplicación de juegos, supuestamente fraudulenta, denominada 'Wildcat Dive', está utilizando la imagen de Lionel Messi para atraer a los usuarios, ocasionando pérdidas económicas a quienes caen en su engaño.
Deepfakes: así es la estafa que utiliza la imagen de Lionel Messi
El engaño comenzó con la manipulación de una entrevista concedida por el jugador del Inter de Miami a un programa argentino llamado 'Olga'.
Tanto la voz del entrevistador como la de Messi fueron editadas para promocionar la aplicación de juegos. Un individuo informó el incidente en X (ex Twitter). La empresa de seguridad informática ESET realizó un análisis exhaustivo y corroboró la existencia del fraude.
Una estafa involucró a la imagen falsa de Lionel Messi
Las conclusiones de la investigación respaldan las quejas de los usuarios sobre la aplicación en la App Store de Apple, donde la califican como una estafa y mencionan la imposibilidad de recuperar el dinero invertido. ESET declara que obtener premios es prácticamente imposible y que las probabilidades de recuperar la inversión son muy bajas.
Los estafadores emplearon dos tácticas para aumentar la credibilidad. Primero, el futbolista menciona fuentes de ingresos adicionales, como acuerdos publicitarios legítimos.
Sin embargo, durante la entrevista, se superponen vídeos de negocios diversos para disimular las discrepancias entre la voz y el movimiento de los labios, dificultando la detección del fraude por parte del usuario.
Para prevenir este tipo de situaciones, es crucial analizar minuciosamente la información y verificarla con fuentes confiables.
La combinación de personalidades reconocidas y la sofisticación de la técnica puede generar engaños sutiles. Siempre es recomendable verificar la autenticidad de la información y consultar a expertos en ciberseguridad en caso de dudas.
Deepfake: cómo identificar la falsificación de contenido
La capacidad de manipular rostros, voces y expresiones con una precisión sorprendente plantea serios desafíos a la hora de discernir entre lo auténtico y lo falso.
Las tecnologías de autenticación robustas permiten verificar la legitimidad de los contenidos compartidos en línea
En este sentido, desde la empresa especialista comparten algunas recomendaciones para contrarrestar el deepfake.
Concientización y educación
Desde Noventiq destacan que es fundamental que el público y los profesionales comprendan qué es el deepfake, cómo funciona y cómo se puede reconocer en algunos casos.
Fortalecimiento de la autenticidad digital
Resulta fundamental que plataformas especializadas inviertan en tecnologías de autenticación robustas que permitan verificar la legitimidad de los contenidos compartidos en línea.
Algoritmos de reconocimiento facial y de voz, así como marcas de agua digitales, pueden desempeñar un papel crucial en la protección de la integridad de los archivos multimedia, según Noventiq.
Colaboración y cooperación
La empresa también subrayó la necesidad de que gobiernos, empresas tecnológicas, instituciones académicas y sociedad civil deben establezcan alianzas sólidas para compartir conocimientos, recursos y mejores prácticas en la detección y mitigación de esta maniobra.
Además, la colaboración internacional resulta "fundamental" para abordar este desafío global y establecer estándares comunes que promuevan la integridad y la autenticidad en los medios digitales.
El deepfake puede ser identificado por movimientos bruscos, cambios de iluminación, parpadeo extraño o ausencia del mismo
Legislación y regulación
En ciudades como California ya se impusieron leyes contra el uso del deepfake en aspectos pornográficos y políticos.
Por eso, desde la compañía de ciberseguridad recomiendan a los gobiernos trabajar en conjunto para establecer marcos legales que penalicen la producción y difusión de deepfakes con intención maliciosa.
"El deepfake puede ser identificado en algunos casos ya sea por movimientos bruscos, cambios de iluminación entre fotogramas, parpadeo extraño o ausencia del mismo y falta de sincronía de los labios con el habla. Sin embargo, esta amenaza requiere un enfoque que abarque la educación, la tecnología, la legislación y la colaboración" resaltaron desde Noventiq.
A modo de conclusión, postularon que al implementar estrategias efectivas, "podemos contrarrestar el avance del deepfake y proteger la integridad de la información en la era digital y, así, salvaguardar nuestra sociedad y preservar la confianza en los medios que consumimos y compartimos".