ChatGPT surgió como un modelo de lenguaje de gran alcance que posibilitó la realización de diversas tareas cotidianas, como la generación y confección de diversos tipos de documentos, e incluso la traducción instantánea de textos a otros idiomas.
No obstante, la carencia de neutralidad y de una auténtica consciencia en esta IA provoca la posibilidad de que dicho potencial se utilizara para fines maliciosos.
Desde su lanzamiento al público el año pasado, Check Point Software Technologies Ltd. (NASDAQ: CHKP), un destacado proveedor de soluciones de ciberseguridad a nivel global, identificó varios ejemplos de cómo los ciberdelincuentes aprovecharon ChatGPT para optimizar y acelerar sus campañas y herramientas de ciberataque.
Esto se convirtió en un desafío para los principales desarrolladores de inteligencia artificial.
Inteligencia artificial: siete prácticas que utilizan los ciberdelincuentes
Ante esta problemática, Check Point Software resumió los siete principales riesgos y malos usos de la inteligencia artificial generativa en el ámbito de la ciberseguridad:
- Distribución de malware
Al aprovecharse del objetivo principal de estas herramientas, que buscan ayudar a los usuarios, los ciberdelincuentes generan elementos como virus o troyanos. Unos códigos maliciosos depurados que incrustan en documentos, correos electrónicos e incluso páginas web para maximizar el alcance de sus ataques e infectar los ordenadores de sus víctimas.
- Phishing
Con una gran cantidad de ejemplos disponibles, la IA permite crear unas comunicaciones falsas mucho más realistas y convincentes que hacen que la tarea de distinguir los verdaderos correos legítimos se convierta en un verdadero reto.
Y es que el objetivo de estos no es otro que engañar a los usuarios para hacer que se sientan seguros y proporcionen información sensible como contraseñas o datos de pago como tarjetas de crédito.
- Ingeniería social
Diseñadas para ser lo más humano posible, ChatGPT puede ser utilizado para hacerse pasar por personas reales con el fin de manipular a los usuarios para que realicen acciones perjudiciales para ellos mismos o sus empresas, engañar a un usuario para que proporcione información de su cuenta.
- Filtración y robo de datos
La IA generativa puede ser utilizada para crear documentos o correos electrónicos falsos que parezcan legítimos, lo que puede ser utilizado para engañar a los usuarios y hacer que revelen sus credenciales o datos sensibles.
- Desinformación y propaganda
ChatGPT puede ser utilizado para generar noticias falsas y propaganda que pueden ser utilizadas para engañar y manipular a las personas. Esto puede ser usado para dañar reputaciones, sembrar discordia, e incluso incitar a la violencia.
- Difamación y suplantación
Con herramientas como estas, cada vez más accesibles y asequibles, hay una creciente preocupación de que distinguir entre archivos auténticos y deep fakes sea casi imposible, capaces de crear fotografías, vídeos e incluso audios falsos.
- Amenazas internas
La inteligencia artificial puede ser utilizada maliciosamente para crear documentos o correos electrónicos falsos que parezcan provenir de usuarios autorizados, algo que puede ser utilizado para obtener acceso a datos o sistemas sensibles.
Inteligencia artificial: cómo resguardarse de los ciberdelitos
Para hacer frente a los desafíos que plantea la inteligencia artificial en el ámbito de la ciberseguridad, se precisa una aproximación integral que involucre tecnología avanzada, la formación de usuarios, regulaciones eficaces y una colaboración continua entre expertos.
A pesar del gran potencial de desarrollo que aún tiene la IA, es crucial que la cooperación entre profesionales de la ciberseguridad y los creadores de estas herramientas se convierta en un pilar fundamental para anticipar y abordar los posibles riesgos emergentes.
Con el fin de reducir los riesgos de la inteligencia artificial en ciberseguridad, resulta esencial la implementación de medidas avanzadas de detección que permitan identificar la actividad maliciosa antes de que se produzcan los ataques.
Además, es necesario establecer regulaciones y estándares que aseguren un uso ético de la IA, promoviendo la transparencia y la responsabilidad en su desarrollo y aplicación.