La inteligencia artificial (IA) cada vez ocupa más aspectos en la vida de las personas y los aplicaciones de uso diarios son ejemplo del uso de esta tecnología en el día a día.
Luzia, la app asistente personal con IA, realizó un sondeo el cual arrojó datos curiosos al respeto de los argentinos y su temor y preocupación del uso de la inteligencia artificial en las aplicaciones y la relación que hay con la relación de sus datos personales.
Algunos datos del sondeo, que contó con la participación de 1.000 usuarios de entre 13 y 30 años, fueron:
- El 62% de las personas teme que la información privada sea usada sin su consentimiento
- El 23% de las personas teme que sus imágenes sean difundidas
- Solo el 8% cree que no podrá borrar o actualizar datos en estas apps
Por otra parte, el sondeo también reveló un dato preocupante: el 59% de los participantes desconoce que las plataformas de IA utilizan datos personales para entrenar modelos de inteligencia artificial.
Y además, el 40% confesó que solo "a veces" lee las políticas de privacidad de una nueva aplicación o servicio antes de ser usada.
El 23% de las personas eme que sus imágenes sean difundidas.
Los datos personales y la IA
Álvaro Higes, fundador de Luzia, le explicó a iProUP acerca de otras preocupaciones que despierta el uso de la IA en la actualidad.
En relación a los datos personales que se ponen en juego en relación a la recolección que hacen las app que usan IA, Higes apunta que "estos pueden incluir información demográfica, preferencias de uso, historial de navegación, ubicaciones geográficas, datos de contacto y, en algunos casos, incluso datos biométricos como reconocimiento facial y voz".
"Estos datos son utilizados para entrenar modelos de IA, algo que puede implicar riesgos significativos para la privacidad si no se manejan adecuadamente", asevera.
Y agrega: "son varios los retos y problemas que enfrentan las firmas que utilizan IA por ser cada vez mayor el y uso masivo que poseen estas aplicaciones".
"Estos van desde la transparencia y confianza de los usuarios por la falta de información acerca del uso de sus datos, hasta cómo asegurarnos de no fomentar adicciones y dependencia por la hiper personalización que se puede conseguir mediante ese inmenso conocimiento del usuario a través de sus datos", explica.
El fundador de Luzia destaca que "desde la empresa tienen como foco hacer un uso responsable de los mismos", desestima que "ellos entrenen a la app con información de los usuarios como datos demográficos" y resalta que "las conversaciones son cifradas de punta a punta".
Álvaro Higes, fundador de Luzia.
¿Se viene la regulación de la IA?
Higes expresa que la preocupación que genera una posible regulación por el uso "desmedido" de la IA es "creciente alrededor de todo el mundo".
"No solo es en Europa como suele ser habitual, sino también en el resto de continentes", agrega.
Ejemplifica que en Brasil, Meta tuvo que paralizar el lanzamiento de su IA debido a preocupaciones de los reguladores acerca del uso de los datos de usuario y la manera de solicitar el uso de la misma.
"Las empresas debemos hacer un esfuerzo mayor en aportar transparencia para, entre otras cosas, facilitar el entendimiento a los usuarios y que tengan la capacidad de tomar decisiones informadas acerca de qué información están dispuestos a ceder y las consecuencias que estas cesiones puedan tener", enumera.
"Como cualquier tecnología nueva, o en el caso de la IA, en clara expansión, la construcción de políticas y límites simplemente está comenzando. Una mayor transparencia por parte de las empresas asegurará una colaboración más fluida con organismos y repercutirá positivamente en la vida de los usuarios. Nos gusta además predicar con el ejemplo", concluye.