Un equipo de investigadores desarrolló un gusano informático capaz de infectar agentes de Inteligencia Artificial (IA) generativa, como ChatGPT y Gemini.
Se lo conoce como Morris II y explota vulnerabilidades en la arquitectura de estos sistemas para robar datos de los usuarios y propagarse a través de correos electrónicos y archivos adjuntos.
Un gusano informático es un tipo de software malicioso que se autopropaga a través de redes informáticas.
A diferencia de un virus, que necesita infectar un archivo para reproducirse, un gusano es un programa independiente que puede replicarse a sí mismo y enviarse a otras computadoras sin necesidad de interacción humana.
Cómo funciona el gusano que ataca asistentes de IA
Morris II manipula las instrucciones que se le dan a la IA generativa para que ignore su propósito original y ejecute comandos maliciosos.
El gusano puede envenenar la base de datos de un sistema de correo electrónico de IA, extrayendo información confidencial como nombres, números de teléfono y datos de tarjetas de crédito.
Un equipo de investigadores desarrolló un gusano informático capaz de infectar agentes de Inteligencia Artificial (IA) generativa, como ChatGPT y Gemini
"El accionar de Morris II demuestra que los ecosistemas de IA aún son vulnerables a este tipo de ataques. Hay muchas evidencias que advierten que los desarrolladores de estas herramientas deben fortalecer sus sistemas de seguridad para hacerlos más resistentes a las amenazas", comenta a iProUP Franco Pilnik, Fiscal de Cibercrimen.
El nombre "Morris II" no es casualidad. Es un homenaje al gusano Morris, considerado el primer malware de la historia, que causó estragos en 1988.
"Morris II utiliza un "mensaje de autorreplicación adversario". Este comando induce al modelo de IA a generar en sus respuestas otros mensajes con el potencial de ejecutar acciones maliciosas", recuerda a iProUP Enrique Dutrá especialista en seguridad informática.
Se trata de un método que recuerda a ataques clásicos como la inyección SQL y el desbordamiento de búfer. El gusano fue probado con éxito en un sistema de correo electrónico experimental conectado a:
- ChatGPT
- Gemini
- LLM de código abierto LLaVA
Los resultados revelaron vulnerabilidades críticas cuando el sistema procesaba texto e imágenes con mensajes maliciosos.
Guillermo Colsani, especialista en Ciberseguridad, le explica a iProUP acerca del desafío que supone para la IA protegerse de ser atacado por una creación suya: "El desarrollo de IA generativa ha supuesto un gran avance en la tecnología, pero también ha abierto nuevas puertas a los ciberdelincuentes".
"Es importante que la comunidad de IA trabaje en conjunto para desarrollar soluciones que permitan aprovechar al máximo las ventajas de esta tecnología sin poner en riesgo la seguridad de los usuarios", añade.
Qué medidas se pueden tomar para no ser víctima del gusano que ataca la IA
Especialistas entrevistados por iProUP lanzan una serie de recomendaciones para protegerse de este tipo de ataques:
- Utilizar contraseñas seguras y diferentes para cada cuenta
- No abrir correos electrónicos o archivos adjuntos de remitentes desconocidos
- Mantener actualizado el software de seguridad
- Estar atento a las últimas noticias sobre amenazas informáticas
"El ataque de Morris II es un llamado de atención para la comunidad de IA. Es necesario reforzar la seguridad de estos sistemas para evitar que se conviertan en una vía de entrada para los ciberdelincuentes", completa su mirada Dutrá.
Para Pilnik, el futuro de la IA "dependerá en gran medida de la capacidad de la comunidad para abordar los desafíos de seguridad. Si se logra fortalecer la seguridad de estos sistemas, la IA podrá seguir desarrollándose y transformando nuestro mundo de forma positiva".
Guillermo Colsani agrega que "el trabajo de Nassi, Cohen y Bitton (investigadores creadores de Morris II) va más allá de una simple demostración técnica. Es una invitación a la reflexión sobre los riesgos asociados a la IA y la necesidad de una vigilancia constante. El caso de Morris II es un recordatorio de que la IA es una herramienta poderosa que debe ser utilizada con responsabilidad".
Un peligro latente para las empresas
Aunque este tipo de "gusanos de IA" aún no se han detectado en el mundo real, su existencia teórica es motivo de preocupación para desarrolladores, startups y empresas tecnológicas que dependen de estas tecnologías emergentes.
La inteligencia artificial no es infalible y su expansión también requiere el desarrollo de sistemas de seguridad más robustos
El estudio no sólo recalca la importancia de diseñar sistemas de IA con medidas de seguridad robustas, sino que también enciende el debate sobre la necesidad de regulaciones y protocolos de protección más estrictos frente a las posibles amenazas que la IA generativa representa para la seguridad de la información digital.
Un portavoz de OpenAI, empresa responsable de ChatGPT, reconoció la amenaza y confirmó que "están trabajando para fortalecer sus sistemas contra este tipo de ataques".
La postura de los expertos coincide en que se está a tiempo de trabajar en un factor central como la seguridad. A pesar de su enorme potencial, la IA no es una tecnología infalible y requiere de medidas de seguridad para protegernos a todos.