Un grupo de abogados argentinos presentó una denuncia formal ante la Agencia de Acceso a la Información Pública (AAIP) contra Meta, empresa matriz de Facebook, WhatsApp e Instagram. La acusación se centra en el presunto uso no autorizado de datos personales de usuarios argentinos para entrenar sus modelos de inteligencia artificial.
Uno de los detonantes fue el "círculo azul" de WhatsApp, que apareció recientemente en la app para ofrecer los servicios de Meta IA a los usuarios. Los expertos sospechan que puede capturar información y entrenar a sus algoritmos sin consentimiento.
La presentación, que consta de 22 puntos, solicita a la bigtech explicaciones detalladas sobre sus prácticas de recolección y uso de datos, así como una evaluación de impacto y garantías de anonimización. Además, se pide a la AAIP que realice una auditoría ¡y establezca estándares claros para la protección de datos en el contexto de la IA.
Denuncia a Meta: qué piden en la Justicia
Esta denuncia se suma a un creciente escrutinio internacional sobre prácticas de las grandes tecnológicas en materia de IA y protección de datos. Por ejemplo, en Brasil fue obligada a suspender el funcionamiento de "Meta AI" y enfrenta multas millonarias.
En la Unión Europea, la situación es similar: las autoridades impusieron restricciones a los modelos de inteligencia artificial de Meta por las preocupaciones sobre la privacidad.
La falta de una regulación clara puede dejar al país rezagado en el desarrollo de la IA y exponer a los ciudadanos a riesgos de privacidad. Los denunciantes advierten que la ausencia de reglas actualizadas pone a la Argentina en una situación vulnerable ante las decisiones unilaterales de las grandes tecnológicas.
Claves de Meta AI
En Diputados, existe más de una decena de proyectos de bloques opositores para regular esta tecnología, siete de los cuales debatirá la Comisión de Ciencia y Tecnología, presidida por Daniel Gollán (UxP), la próxima semana.
Sin embargo, en el Gobierno existe poco interés en el tema. , ya que esta falta de regulación hasta sería una ventaja para los CEO que el presidente Milei visitó en Silicon Valley con el fin de atraer inversiones y colocar al país como cuarto hub de desarrollo de IA a nivel global, detrás de EEUU, Europa y China.
"Es fundamental destacar que la normativa vigente de protección de datos personales en Argentina (Ley 25.326) no contempla actualmente el derecho de oposición", asegura a iProUP el abogado Daniel Monastersky, Director del Centro de Estudios en Ciberseguridad y Protección de Datos de la Universidad del CEMA (CECIB).
El letrado, conocido en X bajo el usuario @identidadrobada, sostiene que "esta ausencia deja a los ciudadanos argentinos en una posición vulnerable frente a prácticas como el uso de datos personales para el entrenamiento de modelos de inteligencia artificial sin su consentimiento explícito".
Sin embargo, el anteproyecto de reforma de la ley sí incluye este derecho crucial. En su artículo 29 sostiene que:
- La persona titular de los datos puede oponerse al tratamiento o una finalidad específica, si no prestó consentimiento
- La empresa debe dejar de procesar esa información, salvo que existan motivos legítimos que prevalezcan sobre los derechos del solicitante
Esto representa un avance significativo en la protección de los derechos digitales de los ciudadanos argentinos. Sin embargo, es crucial entender que este derecho no estará en vigor hasta que se apruebe la reforma.
El caso de Meta en Argentina marca un punto de inflexión en el debate sobre la protección de datos y la IA. El resultado de esta denuncia puede sentar un precedente importante para la regulación de este tipo de tecnología en el país y en la región.
Denuncia a Meta: ¿se puede evitar el uso de datos?
Un punto clave en esta historia es la reciente actualización de la política de privacidad que hizo el gigante de las redes sociales, implementada el 26 de junio. Así, al publicar o interactuar con chatbots en Facebook, Instagram, Threads o WhatsApp, Meta puede usar esos datos para entrenar sus modelos de IA generativa.
"Incluso, si no usás ninguna de las plataformas de Meta, aún puede extraer datos como fotos tuyas si alguien más las publica", agrega a iProUP Enrique Dutrá, especialista en ciberseguridad.
La compañía asegura que no utiliza el contenido de los mensajes privados para entrenar su IA. Usuarios de la Unión Europea y el Reino Unido tienen el derecho a oponerse a este uso de sus datos y pueden solicitar que se excluyan.
Entretanto, quienes viven en países sin leyes de protección de datos tan robustas tienen menos opciones para limitar el uso de su información. "Una forma de reducir el riesgo es configurar tu cuenta como privada para minimizar la cantidad de información pública disponible", recomienda Dutrá.
La recopilación y el uso de datos para entrenar modelos de IA es un tema cada vez más controvertido. Si bien las tecnológicas argumentan que necesitan estos datos en grandes cantidades para desarrollar innovaciones, los usuarios se preocupan por la privacidad y la seguridad. Y la regulación llegará tarde como en cualquier aspecto 4.0.