Microsoft, que invirtió una suma significativa de fondos a OpenAI, restringió temporalmente el acceso de sus empleados a ChatGPT y otras herramientas de inteligencia artificial.
Aunque esta medida solo perduró unas horas el jueves pasado, la noticia generó sorpresa no solo entre los empleados de la gigante tecnológica, sino en toda la comunidad del sector.
La decisión se fundamentó en cuestiones de seguridad y manejo de datos, según lo comunicado por Microsoft a través de un sitio web interno, donde expresaron: "Debido a problemas de seguridad y de datos, varias herramientas de Iinteligencia Artificial ya no están disponibles para los empleados".
A pesar de la inversión considerable de Microsoft en OpenAI y las precauciones integradas en ChatGPT para prevenir usos indebidos, la compañía puntualizó oficialmente que el sitio web en cuestión es un servicio externo de terceros.
Microsoft advierte y desbloquea el acceso a ChatGPT tras el incidente
En la comunicación interna, la empresa advirtió a sus empleados sobre los riesgos de privacidad y seguridad al utilizar aplicaciones externas como Midjourney o Replika.
A pesar de esta precaución, y tras el bloqueo temporal de estas herramientas, Microsoft restableció rápidamente el acceso a ChatGPT.
Microsoft no es la única empresa que ha bloqueado ChatGPT, la medida fue tomada por varias compañías para prevenir la divulgación de información confidencial.
Tras el incidente, un portavoz de Microsoft explicó que el bloqueo fue un error derivado de una prueba en los sistemas de grandes modelos lingüísticos.
Según sus palabras: "Estábamos probando sistemas de control de puntos finales para LLM y los activamos inadvertidamente para todos los empleados".
El servicio se restableció poco después de identificar el error. La compañía reiteró su recomendación de utilizar servicios como Bing Chat Enterprise y ChatGPT Enterprise, destacando sus mayores niveles de privacidad y protecciones de seguridad.
Es importante destacar que Microsoft no es la única empresa que ha bloqueado ChatGPT. Varias compañías han restringido el uso de este bot de inteligencia artificial, principalmente para prevenir la divulgación de información confidencial.
ChatGPT: 6 ataques empleados por ciberdelincuentes mediante la inteligencia artificial
La inteligencia artificial puso en jaque la ciberseguridad de millones de personas y organizaciones que comenzaron a interactuar con esta tecnología en el último año, gracias a su creciente vorágine en casi todos los ámbitos de la vida cotidiana.
Entre las herramientas que emergieron de este sector, la que más rápido se popularizó fue ChatGPT, el chatbot desarrollado por la empresa OpenAI, utilizado para facilitar tareas de todo tipo e incluso traducir textos otros idiomas en cuestión de segundos.
Un proveedor de soluciones de ciberseguridad global detectó numerosos ejemplos de cómo se usó la inteligencia artificial para acelerar y mejorar los ciberataques.
Sin embargo, la neutralidad y falta de un control directo que pueda hacerse sobre esta y muchas otras IA provoca que los ciberdelincuentes ya las utilicen para vulnerar todo tipo de sistemas.
Desde su apertura al público el pasado año, Check Point Software Technologies, proveedor de soluciones de ciberseguridad global, detectó numerosos ejemplos de cómo los ciberdelincuentes emplearon la inteligencia artificial para acelerar y mejorar sus campañas y herramientas de ciberataques.
Ante esta situación, la empresa logró sintetizar seis peligros principales y malos usos de la inteligencia artificial generativa en el ámbito de la ciberseguridad:
Distribución de malware
Los ciberdelincuentes generan elementos como virus o troyanos a través de estas herramientas, con el fin de engañar a los usuarios y dirigirlos a sitios con dominios similares a los de ChatGPT y otros servicios.
Estos códigos maliciosos depurados son incrustados en documentos, correos electrónicos e incluso páginas web para maximizar el alcance de sus ataques e infectar los ordenadores de sus víctimas.
Phishing
Gracias a su sistema de creación de lenguaje automático, la IA permite crear unas comunicaciones falsas mucho más realistas y convincentes que las maniobras de phishing tradicionales. Ell genera entre los usuarios que la tarea de distinguir los verdaderos correos de los falsos sea aún más complicado.
ChatGPT es utilizado crecientemente por ciberdelincuentes para implementar todo tipo de ataques
El objetivo de estos es engañar a los usuarios para hacer que se sientan seguros y proporcionen información sensible como contraseñas o datos de pago como tarjetas de crédito.
Ingeniería social
Diseñada para ser lo más humano posible, ChatGPT puede ser utilizado para hacerse pasar por personas reales con el fin de manipular a los usuarios para que realicen acciones perjudiciales para su persona o para sus empresas.
Básicamente, los piratas informáticos buscan engañar a un usuario mediante llamados telefónicos, mensajes de texto, WhatsApp, redes sociales (Twitter y Facebook) o envíos de mails en los cuales los convencen de realizar alguna acción que termina con transferencias no recuperables al estafador o incluso con el ingreso de este a la cuenta
Filtración y robo de datos
La IA generativa puede ser utilizada para crear documentos o correos electrónicos falsos que parezcan legítimos, lo que puede ser utilizado para engañar a los usuarios y hacer que revelen sus credenciales o datos sensibles.
Desinformación y propaganda
ChatGPT puede ser empleado para generar noticias falsas y propaganda que pueden ser utilizadas para engañar y manipular a las personas.
Estas acciones pueden generar daños en las reputaciones, sembrar discordia e, incluso, incitar a la violencia entre más de una persona.
ChatGPT puede ser utilizado para hacerse pasar por personas reales con el fin de manipular a los usuarios
Difamación y suplantación
Con herramientas de este estilo, cada vez más accesibles y asequibles, existe una creciente preocupación de que la distinción entre archivos auténticos y deep fakes sea prácticamente imposible, capaces de crear fotografías, vídeos e incluso audios falsos.
Inteligencia artificial: cómo resguardarse de los ciberdelitos
Datos confiables, seguridad y la construcción de una base ética aparecen como los pilares fundamentales para convertir la inteligencia artificial generativa en una tecnología confiable.
Desd Check Point resaltaron que, para contrarrestar los peligros que la inteligencia artificial plantea en el ámbito de la ciberseguridad, se requiere un enfoque holístico que combine la tecnología avanzada, la educación de los usuarios, la regulación efectiva y la colaboración continua entre expertos.
"Para mitigar los riesgos de la inteligencia artificial en ciberseguridad, es esencial implementar medidas de detección avanzadas que identifiquen la actividad maliciosa antes de que ocurran los ataques. Es necesario que se establezcan unas regulaciones y estándares para garantizar un uso ético de la IA, promoviendo la transparencia y responsabilidad en su desarrollo y aplicación", sintetizaron.