Profesionales especializados en seguridad informática alertaron a los usuarios sobre el riesgo asociado con la inserción de datos personales en asistentes de Inteligencia Artificial (IA) generativa, como ChatGPT. 

Advirtieron que estos datos quedan registrados y pueden ser reutilizados para seguir entrenando la aplicación, algo que implica la "pérdida de control" y la posibilidad de enfrentar consecuencias en términos de privacidad.

En la actualidad, diversas tecnologías de Inteligencia Artificial generativa son ampliamente empleadas por usuarios tanto en el ámbito personal como en el profesional. 

Estas herramientas permiten realizar diversas tareas, como:

Algunos ejemplos destacados en este campo incluyen asistentes conversacionales como ChatGPT, desarrollado por OpenAI, que logró más de 100 millones de usuarios activos semanales en menos de un año, y Bard, creado por Google.

En este contexto, los expertos de la empresa de ciberseguridad Secure&IT alertaron acerca de las posibles repercusiones de ingresar información personal en las interacciones con estos asistentes, ya que estos pueden almacenar dichos datos para continuar el proceso de entrenamiento de la Inteligencia Artificial, resultando en la pérdida de control sobre la información personal.

Expertos en seguridad informática alertaron sobre los riesgos de los datos registrados en asistentes personales de IA como ChatGPT.
 

Según la declaración de Natalia Patiño, la consultora legal en tecnologías de la información y comunicación (TIC) de Secure&IT, es esencial comprender que la aplicación correcta de ChatGPT implica considerarla como una herramienta que "facilita o complementa" las actividades humanas, pero en ningún caso la reemplaza.

En este contexto, Patiño destacó que ChatGPT no es infalible y sugiere que su utilización debería someterse a verificación constante para prevenir posibles riesgos.

Además, resaltó que ChatGPT no posee la capacidad de razonar; más bien, sus respuestas están directamente relacionadas con los datos con los que fue previamente entrenado.

Aprendizaje por transferencia

De acuerdo con la explicación brindada por Secure&IT, el funcionamiento de ChatGPT se basa en una técnica de aprendizaje conocida como "aprendizaje por transferencia".

Este enfoque implica entrenar el modelo de aprendizaje mediante un conjunto de datos extenso y luego utilizar los resultados para continuar afinando el modelo.

Cuando los usuarios interactúan con el 'chatbot', ingresan una solicitud y, posteriormente, el modelo ajusta su respuesta según lo solicitado y los datos contextuales proporcionados.

Según Natalia Patiño, consultora legal en tecnologías de la información y comunicación (TIC) de Secure&IT, ChatGPT no es infalible y sugirió que debe ser controlado.
 

Gracias a este método, el asistente puede generar respuestas cada vez más precisas, simulando de manera cercana la forma en que respondería un ser humano.

No obstante, los especialistas indicaron que durante este proceso detallado, las herramientas de IA utilizan "todos los datos que los usuarios introducen", y estos datos quedan registrados para su posible reutilización. 

Por lo tanto, se aconseja reflexionar sobre la información que se comparte con el 'chatbot' y evaluar si dichos datos son de carácter personal.

Patiño destacó que al introducir datos personales o información confidencial, se corre el riesgo de "perder el control sobre esos datos e informaciones".

En este contexto, se refiere a los datos personales como cualquier información vinculada a una persona física "identificada o identificable".

Además, la experta aconsejó a los usuarios evitar proporcionar datos directamente identificables y aquellos que "de forma indirecta puedan llevar a la identificación".

 

También, los expertos indicaron que las herramientas de IA utilizan "todos los datos que los usuarios introducen", y estos datos quedan registrados para su posible reutilización.
 

A su vez, destacó la importancia de no incluir este tipo de información en las consultas, especialmente considerando la opacidad general de los chats basados en IA en la actualidad.

Calidad de las respuestas de Chatgpt y sesgos

Desde Secure&IT también indicaron que la efectividad de las respuestas del asistente depende de la calidad del "prompt" proporcionado por el usuario, es decir, cómo se solicita la acción requerida y qué contexto se comparte. 

Por lo tanto, una entrada adecuada debe ser "clara" e incorporar palabras clave que faciliten a la IA generar la respuesta más apropiada.

A pesar de esto, los especialistas en ciberseguridad subrayaron que, incluso con estas consideraciones, es posible obtener respuestas incorrectas o incompletas

Incluso se pueden generar respuestas que contengan "alucinaciones", donde el 'chatbot' puede ofrecer información que parezca lógica y convincente, pero en realidad sea falsa o inventada.

Otro factor importante al utilizar herramientas de IA como ChatGPT es la presencia de diversos tipos de sesgos en las respuestas. 

Además, indicaron para que el funcionamiento de los chatbots sea efectiva, las indicaciones deben ser claras.
 

Un ejemplo es el sesgo de retroalimentación, que se manifiesta cuando los sistemas de IA, al entrenarse con la retroalimentación de los usuarios, perpetúan prejuicios y estereotipos existentes.

Patiño mencionó un caso específico de sesgo de retroalimentación relacionado con la discriminación por edad y género en entornos laborales. 

Explicó que ChatGPT podría continuar sesgando la contratación de personas mayores de 45 años o destacar únicamente perfiles masculinos para roles directivos "si el modelo de IA para la selección de candidatos aprende información previa ya sesgada".

Ante estos desafíos, se destaca que la Unión Europea está trabajando en la regulación del uso de la IA.

Según lo recordado por Secure&IT, la UE se encuentra en "las etapas finales" de la aprobación del Reglamento sobre la IA, que establece normas legales para abordar aspectos técnicos, consideraciones éticas y otros desafíos de implementación asociados con la IA en diversos sectores.

Te puede interesar