Los deepfakes facilitan fraudes millonarios en América Latina y el mundo. Delincuentes usan IA para suplantar identidades y vulnerar sistemas de seguridad
17.03.2025 • 12:27hs • TECNOLOGÍA
TECNOLOGÍA
Deepfakes: el nuevo método de fraude potenciado por la IA que desafía la seguridad digital
El avance de la inteligencia artificial genera nuevas oportunidades, pero también plantea riesgos cada vez más sofisticados. Una de las amenazas que crece a nivel global es el uso de deepfakes para cometer fraudes.
Se trata de una técnica que permite manipular imágenes, audios y videos para suplantar identidades con un nivel de realismo alarmante. Según un informe de Appdome, América Latina se convirtió en un foco de estas estafas digitales.
La tecnología deepfake ya fue utilizada en la región para vulnerar sistemas de autenticación biométrica y realizar robos millonarios. Uno de los casos más recientes ocurrió en Brasil, donde delincuentes emplearon IA para acceder a cuentas bancarias y desviar 110 millones de reales.
"En China, un caso similar se desarrolló de manera diferente: los delincuentes utilizaron tecnología deepfake para simular una videollamada y convencieron a un ejecutivo para que realizara transferencias por un total de más de u$s 20 millones", detalló Tom Tovar, CEO y cofundador de Appdome.
En este sentido, expresó que "estos incidentes se están extendiendo, facilitando las cosas a los delincuentes en los países latinoamericanos, donde la demanda de herramientas de IA ha aumentado".
Deepfakes: una nueva amenaza en expansión
Los deepfakes comenzaron a llamar la atención por su uso en campañas publicitarias engañosas, pero el problema escaló rápidamente hacia delitos financieros de alto impacto.
"Inicialmente, los deepfakes se convirtieron en una preocupación pública debido a su papel en la falsificación de campañas publicitarias. Ahora nos enfrentamos a un problema mucho mayor: el robo de millones de dólares a particulares y empresas", indicó Tovar.
Según el especialista, en poco tiempo seremos testigos de un impacto económico masivo. "Por eso nos hemos comprometido a proporcionar una herramienta que pueda bloquear estas estafas, incluso en países donde aún no se han denunciado, para poder prevenirlas antes de que empiecen", especificó.
A medida que la inteligencia artificial avanza y se vuelve más accesible, el desafío para empresas y usuarios es reforzar sus medidas de seguridad para evitar caer en este tipo de fraudes.
Nuevas defensas contra el fraude con deepfakes
Las últimas soluciones de seguridad buscan bloquear intentos de fraude que usan IA para burlar sistemas biométricos.
Estas herramientas detectan el uso de imágenes y videos manipulados en Face ID, identifican aplicaciones de deepfake y previenen intentos de clonación de voz en autenticaciones con "mi voz es mi contraseña".
Un avance clave es la detección avanzada de vitalidad, que no solo analiza gestos como parpadear o girar la cabeza, sino también la textura de la piel, reflejos en los ojos y la profundidad facial, garantizando que haya una persona real frente a la cámara.
"No podemos evitar que se creen deepfakes, pero sí podemos bloquear su uso dentro de las aplicaciones móviles", señaló el CEO de Appdome.
Además, estas herramientas no solo previenen fraudes en tiempo real, sino que generan informes detallados sobre los intentos detectados.
Así, empresas de tecnología financiera, bancos, e-commerce y redes sociales pueden reforzar sus estrategias de seguridad sin afectar la experiencia del usuario.