Expertos alertan por la filtración de datos confidenciales de decenas de millones de usuarios que utilizan estas herramientas de IA.
02.08.2023 • 17:20hs • Ciberseguridad
Ciberseguridad
¡Alarma mundial!: ¿ChatGPT, Bard y Bing exponen los datos de millones de usuarios?
Aunque muchos de los servicios de inteligencia artificial (AI) aseveran que no almacenan en caché la información enviada, ya se produjeron varios incidentes, específicamente con ChatGPT, plataforma que expuso datos sensibles por vulnerabilidades en la construcción actual de estos sistemas.
Check Point Research, la división de Inteligencia de Amenazas de Check Point Software Technologies Ltd. reportó y ofreció solución a una nueva vulnerabilidad en los Modelos de Lenguaje Amplio (LLM) utilizados en ChatGPT, Google Bard, Microsoft Bing Chat y otros servicios de IA generativa.
Cada vez es más común que los desarrolladores se respalden en la IA para el desarrollo de código de software.
Sin embargo, además de una gran facilidad y rapidez de respuesta, estas herramientas también pueden convertirse en la mayor fuente accidental de filtraciones de datos.
La combinación de usuarios despreocupados y gran volumen de información compartida es perfecta para los ciberdelincuentes que buscan explotar brechas como esta para obtener datos como números de tarjetas de crédito, e incluso los registros completos de las consultas realizadas en estos chats.
La creación de Open IA podría dejar datos expuestos
El uso de la IA generativa para crear nuevos ciberataques
Desde el lanzamiento comercial de ChatGPT de OpenAI a fines de 2022, Check Point Research (CPR) analizó la seguridad y protección de las herramientas populares.
Mientras tanto, la industria de IA generativa se centró en promover sus beneficios revolucionarios, y minimizar los riesgos de seguridad para las empresas y los sistemas de TI.
El análisis de ChatGPT4 realizado por Check Point Research (CPR) destacó posibles escenarios para la aceleración de delitos cibernéticos.
CPR presentó informes sobre cómo los modelos de IA pueden utilizarse para crear un flujo completo de infección, desde el spear-phishing hasta la ejecución de un código de shell inverso, puertas traseras e incluso códigos de cifrado para ataques de ransomware.
La rápida evolución de los métodos de ataque orquestados y automatizados plantea preocupaciones serias sobre la capacidad de las empresas para proteger sus activos clave contra ataques altamente evasivos y perjudiciales.
Si bien OpenAI implementó algunas medidas de seguridad para evitar la generación de contenido malicioso en su plataforma, CPR ya demostró cómo los ciberdelincuentes encuentran formas de evadir tales restricciones.
Los ciberdelincuentes aprovenchan las brecha de seguridad de Chat GPT
¿ChatGPT comprometió datos?
Si las empresas no tienen una seguridad efectiva para este tipo de aplicaciones y servicios de IA, sus datos privados podrían verse comprometidos y pasar a formar parte de las respuestas de estas.
Esto implica que los datos confidenciales estarían potencialmente disponibles para un número ilimitado de usuarios, incluyendo por supuesto los propios ciberdelincuentes.