Luego de la polémica por el uso de los datos personales en el desarrollo de la inteligencia artificial que lanzó Meta en julio de este año, llamada Meta AI y que está disponible en WhatsApp, las críticas ahora recaen sobre un nuevo peso pesado de las redes sociales.

Se trata de LinkedIn, la plataforma de empleos insignia, la cual comenzó a entrenar modelos de IA pero con datos de sus usuarios sin su consentimiento explícito.

Similar a lo que hacía Facebook, también perteneciente a Meta, de Mark Zuckerberg, la tecnología es empleada por el portal de trabajos para sugerir publicaciones que se alinean con los intereses de cada usuario.

LinkedIn: descubren que su IA es entrenada con datos privados de usuarios

La plataforma, propiedad de Microsoft, implementó esta medida sin alertar a sus usuarios de manera directa, algo que provocó críticas por la falta de transparencia y control sobre el uso de la información personal y la subsecuente privacidad en torno a los usuarios que la utilizan.

La nueva política, que entró en vigor el 18 de septiembre de 2024, permite que LinkedIn utilice los datos proporcionados por sus usuarios para mejorar y desarrollar sus sistemas de IA

"Cuando una noticia así se conoce, una de las principales preocupaciones éticas es la sensación de que los usuarios pierden el control sobre su propia información. También, surge la duda de si las empresas utilizan esta información para proyectos propios sin que el usuario esté al tanto", comenta a iProUP Jorge Lukowski, director global de Marketing y Comunicación de NEORIS.

Denuncian que LinkedIn recopiló información personal de los usuarios sin su consentimiento para entrenar modelos de inteligencia artificial

Julián Colombo, CEO de N5, resalta que la transparencia es "crucial", ya que la falta de claridad sobre cómo se recopilan y utilizan los datos genera desconfianza, por lo que recomienda a las plataformas ser abiertas en sus prácticas de recolección de datos.

Otro punto importante que menciona es el sesgo y la discriminación: "Es necesario garantizar que los datos representen una diversidad de perspectivas. Además, la seguridad de los datos tampoco puede ser descuidada; el uso de grandes volúmenes de información aumenta los riesgos de filtraciones y abusos, lo que requiere medidas de seguridad robustas para proteger a los usuarios. Es crucial que las plataformas asuman la responsabilidad en el uso de datos y promover así una cultura de consentimiento, transparencia y responsabilidad".

Aunque la empresa menciona este uso en su política de privacidad, no se informó directamente a los usuarios ni se les dio la opción de no participar en este proceso.

Como consecuencia, la organización sin fines de lucro Open Rights Group (ORG) solicitó a la Oficina del Comisionado de Información (ICO), el organismo independiente del Reino Unido encargado de la protección de datos, que inicie una investigación sobre LinkedIn y otras redes que emplean los datos de los usuarios para su entrenamiento de forma automática.

Desde LinkedIn detallan en su sección de preguntas y respuestas que "al igual que con la mayoría de las funciones, cuando interactúas con nuestra plataforma, recopilamos y usamos (o procesamos) datos sobre tu uso de la plataforma, incluidos datos personales".

Esto incluiría el "uso de la IA generativa (modelos de IA utilizados para crear contenido) u otras funciones de IA, tus publicaciones y artículos, la frecuencia con la que usas LinkedIn, tu preferencia de idioma y cualquier comentario que hayas proporcionado a nuestros equipos. Usamos estos datos, de acuerdo con nuestra política de privacidad, para mejorar o desarrollar los servicios de LinkedIn", precisa el portal.

Diversos organismos internacionales ya propusieron normativas para regular el uso de la IA entre empresas que manejas datos

Los planes de la marca regirán oficialmente a partir de noviembre de este año, afectarán a los usuarios de los Estados Unidos, Canadá y cualquier país donde las leyes no hayan legislado ante el uso de esta información. En el caso de los países dentro de la Unión Europea (UE), la situación será diferente.

LinkedIn se mete con la privacidad de los usuarios: las implicancias éticas en el uso de la IA

Esta situación despertó preocupaciones entre los expertos en privacidad, quienes destacan el riesgo de que los datos sensibles puedan ser utilizados de manera inadecuada para entrenar a modelos generativos sin las debidas medidas de seguridad ni consentimiento. 

"Este tipo de situaciones nos lleva a reconsiderar cómo gestionamos la privacidad de los datos de los usuarios. Aunque las soluciones basadas en IA requieren grandes volúmenes de información para ser efectivas, tecnologías como GPT nos permiten crear perfiles "ficticios" que pueden simular patrones reales sin recurrir a datos privados", reflexiona Lukowski.

"Como usuarios, debemos ser conscientes de la información que compartimos, ya que incluso datos que no parecen sensibles pueden ser usados para definirnos. No se trata de cerrar nuestras redes sociales, sino de ser más reflexivos sobre qué publicamos y cómo podría utilizarse", añade.

En este sentido, un informe presentado por la ONU destacó la necesidad "urgente" de regular la IA, el cual marcó sus preocupaciones sobre su impacto en la sociedad y enfatizó la importancia de marcos legislativos que aseguren la privacidad de los usuarios. "La legislación desempeña un papel crucial en la regulación de las plataformas", expresa Colombo.

LinkedIn también detalló que, en algunas regiones como la Unión Europea (UE), el Espacio Económico Europeo (EEE) y Suiza, no se utilizaron datos de residentes para entrenar sus modelos de IA, debido a las regulaciones en materia de privacidad de la Ley General de Protección de Datos (GDPR) y otras que rigen en dichas jurisdicciones.

La plataforma de empleos se limitó a divulgar eficientemente sus políticas, pero muchos usuarios exigen mayor claridad sobre cómo se manejarán sus datos a futuro.

"La legislación tiene un rol crucial en todo esto: proporciona un marco normativo para que las empresas sepan cómo actuar de forma adecuada en un campo relativamente nuevo y que colaboren con los gobiernos para crear leyes que beneficien a ambas partes. Un ejemplo podría ser permitir a los usuarios proporcionar voluntariamente sus datos cuando estos sean relevantes para un proyecto de IA, o darles derecho a conocer para qué serán usados", puntualiza el responsable de NEORIS.

Te puede interesar