El 2023 es sin duda el año de la explosión del uso de la inteligencia artificial con la llegada y masificación de ChatGPT. Pero no todas son buenas noticias, ya que con el uso de esta tecnología también crecen los números de ciberataques.
En pleno auge del uso de la IA, los ataques de phishing, y suplantación de identidad, son algunos de los delitos más comunes, aunque también se puede usar esta tecnología para el envío de mails maliciosos.
Según datos de la firma especializada en riesgo tecnológico, BTR Consulting, los ataques al almacenamiento en la nube y las aplicaciones de colaboración aumentaron 148%.
Por otro lado, el estudio también revela que el phishing fue la amenaza más usada por los ciberdelincuentes, con un 69% de todos los ataques analizados. Además, un 45% de los mismos poseen algún daño económicos.
Por último, el estudio también pone en manifiesto que los ataques vía correos electrónicos empresariales crecieron un 75%. No obstante, ante estos ataques existen soluciones y medidas que se pueden llevar a cabo.
¿Qué medidas se pueden tomar?
En un diálogo exclusivo con iProUP, el abogado Daniel Monastersky, de Data Governance LATAM, expresa que el uso ilícito de la IA se traduce en la violación de la privacidad de la víctima, como por ejemplo la obtención y divulgación de información personal confidencial a través de la tecnología, se puede recurrir a la Ley Nacional de Protección de Datos Personales (N° 25.326) y presentar una denuncia ante la Agencia de Acceso a la Información Pública (AAIP).
Monastersky asegura que actualmente no existe una regulación específica en el país en relación a los ataques con deepfakes.
El abogado hace hincapié que la ley establece la obligación de las empresas y organizaciones de proteger los datos personales de los usuarios y de respetar su privacidad, y prevé sanciones para aquellas que incumplan esta normativa.
En lo que respecta a la regulación ante un ataque con el uso de un deepfake, Monastersky aclara que en Argentina, con la Ley de Protección de Datos Personales previamente mencionadas, establece las normas para la protección de los datos personales y la privacidad de las personas.
"Esta ley determina que los titulares de los datos personales tienen derecho a acceder, actualizarlos, rectificarlos o suprimirlos cuando corresponda", subraya.
En cuanto a los "ataques" con el uso de deepfakes, el abogado asienta que actualmente no existe una regulación específica al respecto en el país. Sin embargo, advierte que los afectados pueden recurrir a esta normativa para hacer valer sus derechos, ya que los deepfakes suelen implicar la utilización de imágenes o videos de personas sin su consentimiento.
"En este sentido, la persona afectada podría solicitar la eliminación y/o supresión de los datos personales involucrados en el deepfake, o incluso presentar una denuncia penal si configurase algún delito penal", sentencia.
"Además, también podría solicitar medidas cautelares para evitar la difusión del deepfake y solicitar la asistencia de peritos informáticos forenses para constatar ese contenido en caso que se requiere contar con ello para una presentación judicial", añade.
El phishing es la amenaza más usada por los ciberdelincuentes.
¿Qué penas hay?
Por otra parte, el abogado manifiesta que en la jurisdicción de la Ciudad de Buenos Aires rigen medidas para sancionar la suplantación de identidad digital.
El Artículo 71 quinquies del Código Contravencional de la Ciudad establece que cualquier persona que utilice la imagen y/o datos filiatorios de otra persona sin su consentimiento para crear una identidad falsa en cualquier medio de comunicación electrónica o transmisión de datos será penalizado.
"Las sanciones van desde una multa de ciento sesenta (160) a cuatrocientas (400) unidades fijas, o con uno (1) a cinco (5) días de trabajo de utilidad pública o de uno (1) a cinco (5) días de arresto. Además, si se utiliza la suplantación de identidad digital para realizar", concluye Monastersky.