Desde OpenAI informaron que los cinco ciberataques procedían de dos grupos asociados a China, Irán, Corea del Norte y Rusia. Todos los detalles
15.02.2024 • 16:05hs • Ciberseguridad
Ciberseguridad
OpenAI y Microsoft desbarataron a banda hacker que usaba inteligencia artificial para atacar
OpenAI, el desarrollador detrás del chatbot de inteligencia artificial (IA) ChatGPT, colaboró con su principal inversor, Microsoft, para prevenir cinco ciberataques vinculados a diferentes actores maliciosos.
OpenAI y Microsoft: cómo se desarrolló la investigación
Según un informe publicado el miércoles, Microsoft vigiló a grupos de hackers vinculados a la inteligencia militar rusa, la Guardia Revolucionaria iraní y los gobiernos chino y norcoreano, que, según afirma, exploraron el uso de grandes modelos lingüísticos (LLM) de IA en sus estrategias de hackeo.
"Hemos desbaratado el uso de nuestra plataforma por parte de cinco ciberdelincuentes afiliados a un Estado. Trabajo realizado en colaboración con el Centro de Inteligencia de Amenazas de Microsoft", resaltó.
OpenAI informó que los cinco ciberataques procedían de dos grupos asociados a China: Charcoal Typhoon y Salmon Typhoon. Los ataques se vincularon a Irán a través de Crimson Sandstorm, a Corea del Norte a través de Emerald Sleet y a Rusia a través de Forest Blizzard.
Los grupos intentaron emplear ChatGPT-4 para investigar herramientas de la empresa y de ciberseguridad, depurar código, generar scripts, realizar campañas de phishing, traducir documentos técnicos, eludir la detección de malware y estudiar la tecnología de comunicación por satélite y radar, según OpenAI. Las cuentas se desactivaron tras la detección.
La empresa reveló el descubrimiento mientras aplicaba una prohibición general a los grupos de hackers respaldados por el Estado que utilizan productos de IA. Aunque OpenAI evitó eficazmente estos sucesos, reconoció el reto que supone evitar cualquier uso malintencionado de sus programas.
Pese a los esfuerzos, los hackers encontraron métodos para manipular el chatbot para producir contenido malicioso
Tras una oleada de deepfakes y estafas generadas por IA después del lanzamiento de ChatGPT, los responsables políticos intensificaron el escrutinio de los desarrolladores de IA generativa. En junio de 2023, OpenAI anunció un programa de becas de ciberseguridad de un millón de dólares para mejorar y medir el impacto de las tecnologías de ciberseguridad basadas en IA.
A pesar de los esfuerzos de OpenAI en ciberseguridad y la implementación de salvaguardas para evitar que ChatGPT genere respuestas dañinas o inapropiadas, los hackers han encontrado métodos para eludir estas medidas y manipular el chatbot para producir dicho contenido.
Más de 200 entidades, entre ellas OpenAI, Microsoft, Anthropic y Google, colaboraron recientemente con la Administración Biden para crear el AI Safety Institute y el United States AI Safety Institute Consortium (AISIC).
Los grupos se crearon a raíz de la orden ejecutiva del Presidente Joe Biden sobre la seguridad de la IA a fines de octubre de 2023, cuyo objetivo es promover el desarrollo seguro de la IA, combatir las deepfakes generadas por la IA y abordar los problemas de ciberseguridad.