Europol, Unicri y la empresa de ciberseguridad Trend Micro acaban de publicar un informe en el que analizan el papel que está jugando la inteligencia artificial en los ciberataques.
«La inteligencia artificial promete al mundo mayor eficiencia, automatización y autonomía. En un momento en el que el público está cada vez más preocupado por el posible uso indebido de la misma, tenemos que ser transparentes en cuanto a las amenazas, pero también examinar los posibles beneficios de esa tecnología», afirma en un comunicado Edvardas Sileris, Jefe del Centro de Ciberdelincuencia de Europol. Sólo en 2020, según datos de Trend Micro, el 37% de las empresas y organizaciones utilizan la inteligencia artificial -IA- de alguna forma dentro de sus sistemas y procesos. Gracias a ella, las compañías pueden conocer mejor a sus clientes y, de esta forma, mejorar sus opciones comerciales. Sin embargo, su abuso, así como su uso indebido puede plantearle problemas al internauta. De hecho, lo está haciendo desde hace algunos años.
En concreto, el informe destaca los potenciales peligros detrás del auge de los « deepfakes», que son los contenidos audiovisuales en los que se cambia el sonido y/o la imagen original de una grabación. Si esta tecnología, que ha evolucionado enormemente en los últimos dos años, se emplea con el fin de desinformar puede causar graves problemas. Tanto políticos como empresariales. Así lo demuestra, por ejemplo, el caso de una conocida empresa energética del Reino Unido, que perdió más de 200.000 euros debido al empleo de un audio falso en el que se había utilizado Inteligencia Artificial para copiar la voz de un ejecutivo de la compañía, según publicó « The Wall Street Journal».
Según ha descubierto Trend Micro estudiando los mercados del cibercrimen, los delincuentes también están utilizando la IA en sus sistemas destinados a adivinar contraseñas de plataformas en internet. Esta tecnología, además, les permite utilizar bots automatizados maliciosos en redes social y engañar a los sistemas de detección o realizar ataques asistidos. Y este solo es el principio; el estudio también recopila cuáles son las previsiones de Europol, Unicri y la empresa de ciberseguridad sobre cómo emplearán esta tecnología en el futuro. «Estoy convencido de que los veremos estos ataques en algún momento, si no es en 2021 será al año siguiente», explica a este diario David Sancho, jefe de análisis de amenazas de Trend Micro y uno de los participantes en la elaboración del estudio.
Ataques de ingeniería social a escala
La ingeniería social, o la intención del cibercriminal en llamar la atención del usuario sobre sus ataques para que caiga en la trampa, es una de las herramientas más empleadas por los delincuentes en internet. Según explica el jefe de análisis de amenazas de Trend Micro, se espera que en el futuro los delincuentes utilicen la IA para lanzar ataques a gran escala y, además, poder diferenciar a los usuarios que tienen más posibilidades de caer en la trampa de los escépticos.
«Un uso efectivo de la IA para un ciberdelincuente consistiría en recopilar un montón de textos y enviarlos por correo o redes sociales al principio del ataque para que sirvan como gancho. La Inteligencia Artificial podría emplearse para que, en caso de que haya respuesta, el cibercriminal pudiese saber si la víctima es escéptica o si está cayendo en la trampa. Entonces, cuando el sistema cae en la cuenta de que la estafa está funcionando, el delincuente puede tomar las riendas de la conversación para que el proceso sea más personalizado y, de este modo, tener más posibilidades de éxito», explica el experto.
Rastreo de documentos
El «ransomware», que es el tipo de virus empleado por los ciberdelincuentes para secuestrar equipos y, después, pedir un rescate, lleva años figurando entre las principales preocupaciones de las empresas. Durante los últimos meses este tipo de ataques han estado avanzando, y en estos momentos los más sofisticados son capaces de robar información a la compañía atacada con la que extorsionarla.
Si se emplea la Inteligencia Artificial y se combina con el virus, el ciberdelincuente puede quedarse, además, con la información que le interesa. «Hay muchos algoritmos capaces de leer documentos y destacar las partes importantes. Si incorporamos este tipo de IA dentro de un virus informático, puede servir para que el virus sea más selectivo con la información que roba y se dedique en concreto a buscar la importante cuando infecta a una empresa o a un usuario concreto», dice el jefe de análisis de amenazas de Trend Micro.
Evasión del reconocimiento de imágenes y voz
El reconocimiento de imágenes y de voz se emplea actualmente en numerosos dispositivos inteligentes como herramienta de seguridad. Algo que pretende garantizar al usuario que solo él puede emplear sus «gadgets». Según explica Sancho, el uso de Inteligencia Artificial permitiría a un cibercriminal crear imágenes y voces sintéticas capaces de saltarse este mecanismo de seguridad y engañar a los sistemas. «Esta tecnología podría servir, por ejemplo, para robar la casa de una persona que cuente con un sistema de identificación por voz», explica el experto.
Contaminación de datos
Todos los sistemas de Inteligencia Artificial cuentan con algoritmos, que son los que le explican cómo debe actuar en función de la situación. «En caso de que estemos hablando de un software antivirus, el algoritmo es capaz de diferencia entre una lista blanca y otra negra. Si descargamos un archivo, y este tiene unas características más parecidas a la información que tiene en la lista negra, te avisará de que tiene mala pinta y puede ser un virus», apunta Sancho. El experto explica que si se emplease un virus lo suficientemente capacitado con IA, este sería capaz de alterar los requisitos de la lista blanca y la negra y, de este modo, dejarle a merced de otros ciberataques, indicó ABC España.