Algunos de los atacantes están vinculados a China, Irán y Rusia. En respuesta a las amenazas, garantiza nuevas mejoras en las medidas de seguridad.
21.10.2024 • 18:30hs • Inteligencia artificial
Inteligencia artificial
OpenAI denuncia hackeos desde China, Irán y Rusia: habrían utilizado su IA con fines maliciosos
OpenAI identificó más de 20 ataques cibernéticos y de manipulación donde utilizaron su modelo de inteligencia artificial (IA) generativa con fines maliciosos.
El reporte mostró como actores estatales y hackers vinculados a China, Irán y Rusia utilizaron herramientas como ChatGPT para:
- desarrollar malware
- ejecutar ataques de phishing
- realizar campañas de desinformación en redes sociales
El informe tiene el objetivo de documentar los ataques cibernéticos y campañas de influencia basadas en la generación de contenido con IA.
¿Qué hackers utilizaron ChatGPT para actos maliciosos?
Puntualmente, el grupo SweetSpecter, con sede en China, fue uno de los actores mencionados en el informe.
El grupo ejecutó ataques de spear-pishing dirigidos contra gobiernos asiáticos y personal de OpenAI.
Los atacantes enviaron correos electrónicos donde fingían tener problemas con ChatGPT. Estos incluían archivos ZIP con un malware llamado "SugarGh0st RAT".
Cuando el destinatario abre el archivo, el malware toma el control del dispositivo y de su información.
Por otro lado, el grupo CyberAv3ngers, vinculado con la Guardia Revolucionaria Islámica de Irán, utilizó ChatGPT para encontrar debilidades en sistemas industriales y hackear equipos de control de agua en EE.UU. e Irlanda.
En 2023, interrumpieron el suministro de agua en Pensilvania y causaron un apagón en Irlanda. Las investigaciones mostraron que los atacantes utilizaron herramientas de inteligencia artificial para crear y mejorar sus ataques.
En respuesta a las amenazas, OpenAI garantizó las mejoras en las medidas de seguridad y la creación de equipos especializados para detectar y prevenir el uso malicioso de sus modelos.
Otras compañías y organizaciones gubernamentales también colaboraron para compartir información sobre nuevas amenazas y coordinar acciones preventivas.
"La cooperación es esencial para anticipar riesgos y garantizar que nuestras herramientas se utilicen con fines positivos", indicó OpenAI en su informe.
Por último, el documento invitó a distintas empresas de la industria tecnológica a adoptar medidas de seguridad efectivas, como por ejemplo la creación de algoritmos robustos capaces de detectar y bloquear las actividades maliciosas antes que sean amenazas reales.