A un año de la muerte de Silvina Luna, un tiktoker creó un chatbot para charlar con un modelo de inteligencia artificial que simula ser la actriz en ChatGPT.
El hombre hizo preguntas sobre su situación "en otro plano" y su opinión sobre el médico Aníbal Lotocki, cuya mala praxis habría causado la muerte de Luna.
El círculo íntimo de la actriz y sus fanáticos reaccionaron indignados. Y los expertos miran los proyectos legislativos para regular la IA.
"Aunque ya no estoy en este plano físicamente, me siento bien, en paz y completamente libre de todo sufrimiento y dolor", responde el modelo de IA. Sobre Lotocki, responde: "Aunque sentí mucha frustración y enojo en su momento, ahora no guardo ningún resentimiento hacia el doctor".
Ante esta primera señal de alerta, los expertos analizan los proyectos para legislar la inteligencia artificial (IA), pero advierten graves falencias.
"No solo se necesita una legislación sobre IA, que puede ser discutible, sino actualizar el Código Penal para incluir nuevas prácticas delictuales llevadas a cabo por medio de esta tecnología como los deep fakes de contenido sexual o destinados a engañar a receptores de noticias, sin olvidar los ataques adversariales o envenenamiento de datos de los cuales pueden ser pasibles los modelos de IA", subraya Agustín Allende, socio de Crearis Latam.
Inteligencia artificial: el puesto que ocupa la Argentina
El Índice Latinoamericano de Inteligencia Artificial elaborado en 2023 por el Centro Nacional de Inteligencia Artificial (CENIA), Argentina aparece cuarta en la región, detrás de Chile, Brasil y Uruguay.
Entre los factores peor calificados respecto a nuestro país se ubican la poca cantidad de data centers destinados esta tecnología, escasez de formación en la materia, migración de talentos, cantidad reducida de empresas dedicadas a esta herramienta y pocos trabajos académicos y patentes vinculados.
En tanto, entre los que mejor rankeados se encuentran infraestructura sólida en materia de conectividad, gobernanza e institucionalidad.
Lo que se ha considerado gravitante para ser bien calificado en materia de institucionalidad son el Plan Nacional de Inteligencia Artificial de 2019, el Plan de Ciencia, Tecnología e Innovación 2030 de 2022 y el Programa de Transparencia y Protección de Datos Personales en el uso de Inteligencia Artificial (Resolución AAIP 161/2023).
"La irrupción generalizada de la inteligencia artificial en este último año, a partir de la aplicación de ChatGPT, obligó a diversos países en pensar acerca de la conveniencia de regular los efectos, tanto negativos como positivos, que se pueden derivar de esta nueva tecnología. El ejemplo más rotundo ha sido el Reglamento de Inteligencia Artificial de la Unión Europea, que fue adoptado en su versión definitiva en marzo", explica.
Además, el experto resalta que "en la región también hay diferentes proyectos de ley en diferente grado de avance, tanto en Brasil como en Chile, Costa Rica, Ecuador, México, Panamá, Perú, Uruguay y Colombia. Pero existen diversas aproximaciones para regular la inteligencia artificial en el mundo, como las que están basadas en lo siguiente":
- Principios
- Estándares
- Adaptando leyes existentes
- Riesgos
- Derechos
- Incumplimientos
- Criterio experimental
Las claves de los proyectos de ley sobre inteligencia artificial que debate el Congreso
Allende resalta que "frente a la complejidad técnica, su íntima conexión con otras áreas del derecho y la constante evolución a la cual está sometida surgen dudas sobre la conveniencia de adoptar un marco jurídico específico sin antes encarar la adecuación de marcos legales existentes para que pueda ser compatible con la inteligencia artificial".
"El marco legal por excelencia que requiere de una inmediata adaptación es la Ley de Protección de Datos Personales (Ley 25.326) porque tiene más de 20 años y en la actualidad no sirve para tutelar los datos personales frente a los nuevos riesgos derivados de la inteligencia artificial", advierte Allende, al tiempo que propugna la adecuación del Código Penal.
Inteligencia artificial: qué dicen los proyectos de ley
Tanto en la Cámara de Diputados como en la de Senadores ya se presentaron unos 20 proyectos de ley con los más diversos alcances.
A la vez durante agosto la Comisión de Ciencia, Tecnología e Innovación de la Cámara de Diputados inició una ronda de jornadas para escuchar a especialistas en lo que concierne a la regulación de la inteligencia artificial, entre los que se cuenta Allende.
Si bien la mayoría de las iniciativas enuncian los principios generalmente reconocidos para la regulación de la IA, para Allende tienen falencias que resume como sigue:
- No consideran la totalidad del ciclo de vida de la tecnología a ser regulada, ignorando la etapa de entrenamiento de los modelos de IA y la gobernanza de los datos involucrados
- No prevén una autoridad de aplicación independiente del gobierno de turno ni cuentan con recursos efectivos para una aplicación persuativa o coercitiva de la ley
- Con la excepción del proyecto de ley 3422-D-2024, del diputado Martín Yeza (PRO), no se prevén escenarios de prueba regulatoria (sandboxes) que permitan evaluar el funcionamiento, impacto y efectos de IA para determinar la viabilidad de su implementación o la necesidad de establecer una flexibilización del marco regulatorio que se establezca
- En varios proyectos se propicia una regulación basada en riesgos como el Reglamento de la Unión Europea, llegando en algunos casos a exigir evaluación de impacto previa a su operación sujeta en algunos casos al visado de la autoridad de aplicación
- Se adopta un criterio formalista e incontrolable de registración mandatoria de los sistemas de IA, tal vez emulando la obligación inútil actual de registrar las bases de datos personales
- Se desconoce el impacto ambiental de la inteligencia artificial, con la excepción del proyecto 0805-D-2024, del diputado Maximiliano Ferraro (Coalición Cívica)
- Ninguno de los proyectos de ley que propugnan modificaciones al Código Penal prevé tipos penales vinculados a la afectación de los sistemas de inteligencia artificial o los datos que los alimentan
Inteligencia artificial: los desafíos de una regulación
Allende resalta que "regular la inteligencia artificial resulta ser sumamente desafiante, más cuando la mayoría de los legisladores no cuenta con el conocimiento básico sobre cómo funciona, pero menos sobre el desarrollo que puede alcanzar a futuro con los consecuentes impactos sobre un sinnúmero de ámbitos de nuestra vida cotidiana".
"No resulta para nada aconsejable que la ley surja de trasplantar un refrito de soluciones regulatorias extranjeras sin considerar el contexto y necesidades locales. Por otra parte, es vital identificar problemas específicos y desafíos asociados con desarrollar y usar estos sistemas y diagnosticándolos, como el consumo desmedido de energía eléctrica de ciertos tipos de IA y su consecuente impacto ambiental", subraya.
El experto apunta que "otra falencia a ser solucionada para evitar que la futura ley se convierta rápidamente en letra muerta es la falta de capacidad institucional de las actuales autoridades de aplicación en campos similares, como la protección de datos personales, a las cuales se las deberá dotar no solo de remedios sancionatorios efectivos sino de los correspondientes recursos financieros y humanos para poder llevar con éxito la tarea de control encomendada", asegura.
Cuando aparecen aspectos controvertidos, como el uso de la voz de una persona fallecida para crear un perfil de IA sin permiso de sus familiares, el Congreso apura proyectos de legislación sobre esta cuestión, que reciben críticas de los expertos.