Los desarrolladores de software malicioso están usando inteligencia artificial generativa para acelerar la creación de código, lo que ha incrementado la cantidad de ataques y facilita que cualquiera con habilidades técnicas produzca malware.
En un informe reciente del equipo de seguridad Wolf de HP, se descubrió una variante del troyano de acceso remoto asíncrono (AsyncRAT) mientras investigaban un correo electrónico sospechoso recibido por un cliente.
Aunque el AsyncRAT fue originalmente diseñado por humanos, esta nueva versión incluía un método de inyección que, según HP, parece haber sido desarrollado mediante el uso de IA generativa.
IA generativa: ¿La nueva herramienta del ciberdelito?
Recientemente, los investigadores han hallado un nuevo tipo de malware que emplea inteligencia artificial generativa, lo que representa un cambio significativo en la forma en que los ciberdelincuentes desarrollan sus códigos maliciosos.
Anteriormente, habían encontrado "anzuelos de phishing" y sitios web fraudulentos, pero las pruebas de uso de IA para escribir código malicioso en un contexto real eran limitadas antes de este descubrimiento.
Este malware contenía varias características que indicaban su desarrollo por una inteligencia artificial, ya que casi cada función tenía un comentario explicativo que describía su propósito, algo poco habitual entre los creadores de software malicioso.
Los delincuentes cibernéticos generalmente evitan proporcionar explicaciones en su código para que el público no comprenda su funcionamiento, lo que añade un nivel de interés a este hallazgo.
Los investigadores identificaron este malware al recibir un correo electrónico sospechoso enviado a un suscriptor del software de protección contra amenazas Sure Click de HP, que se disfrazaba como una factura en francés.
Inicialmente, el equipo no pudo determinar la función del archivo adjunto, ya que el código estaba cifrado dentro de un script que solo se podía acceder con una contraseña.
Sin embargo, lograron descifrar el archivo, revelando un script de Visual Basic que manipulaba variables en el registro de la computadora del usuario y ejecutaba un archivo JavaScript.
Este archivo, a su vez, inyectaba las variables en un proceso de Powershell, lo que resultó en la instalación del malware AsyncRAT en el dispositivo objetivo, ilustrando la creciente sofisticación de los ataques cibernéticos.
AsyncRAT: el malware que usa inteligencia artificial
AsyncRAT, un software desarrollado y lanzado en 2019 a través de GitHub por la compañía de ciberseguridad Blackberry, es presentado por sus creadores como una herramienta legítima de administración remota de código abierto.
Sin embargo, este software ha encontrado un uso predominante entre actores maliciosos en el ámbito cibernético, convirtiéndose en un recurso preferido para quienes buscan realizar ataques.
Esta herramienta permite a los usuarios controlar computadoras infectadas de forma remota, proporcionando una interfaz que facilita diversas tareas en el sistema de la víctima.
Uno de los riesgos asociados con AsyncRAT es su capacidad para extraer claves privadas y palabras semilla de usuarios de criptomonedas, lo que puede resultar en la pérdida de activos financieros significativos.
Aunque la aplicación en sí misma no es novedosa, esta variante en particular emplea un método de inyección innovador y los investigadores han descubierto evidencias claras de que se ha utilizado código generado por inteligencia artificial.
Este hallazgo sugiere que la tecnología de IA está simplificando el proceso para los desarrolladores de malware, permitiéndoles ejecutar ataques más sofisticados.
El informe de HP enfatiza que esta tendencia evidencia cómo la inteligencia artificial generativa está acelerando los ataques y disminuyendo las barreras para que los ciberdelincuentes comprometan dispositivos.
Desafíos de la IA en la ciberseguridad
Los expertos en ciberseguridad continúan enfrentándose a los retos que presenta el avance de la inteligencia artificial en el ámbito de la seguridad digital.
En diciembre, algunos usuarios de ChatGPT comenzaron a explorar su potencial para identificar vulnerabilidades en contratos inteligentes, lo que generó inquietud en la comunidad cripto.
Este descubrimiento podría facilitar que hackers de sombrero blanco utilicen el programa para mejorar la seguridad.
Sin embargo, existe el riesgo de que delincuentes informáticos malintencionados lo aprovechen para detectar y explotar debilidades en sistemas.
En mayo de 2023, un informe del departamento de seguridad de Meta advirtió sobre la creación de versiones fraudulentas de conocidos programas de inteligencia artificial generativa.
Estas versiones eran utilizadas por operadores de malware como cebo para atraer a posibles víctimas.