El Consejo de Europa acaba de adoptar el primer tratado internacional jurídicamente vinculante destinado a garantizar el respeto de los derechos humanos, el Estado de derecho y las normas democráticas en el uso de sistemas de inteligencia artificial (IA).

Este tratado, accesible también para países no europeos, establece un marco legal que abarca todo el ciclo de vida de los sistemas de IA, aborda los riesgos que pueden surgir y promueve una innovación responsable

El convenio posee un enfoque basado en el riesgo para el diseño, desarrollo, uso y desmantelamiento de sistemas de IA, y requiere una cuidadosa consideración de cualquier posible consecuencia negativa.

Denominado Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de derecho, el tratado fue adoptado en Estrasburgo durante la reunión ministerial anual del Comité de Ministros del Consejo de Europa, que congrega a los ministros de Asuntos Exteriores de los 46 Estados miembros del Consejo de Europa.

Marija Pejčinović, secretaria general del Consejo de Europa, declaró: "El Convenio Marco sobre Inteligencia Artificial es el primer tratado mundial de este tipo que garantizará que la IA respete los derechos de las personas".

El tratado responde a la necesidad de una norma jurídica internacional respaldada por los estados de distintos continentes que comparten los mismos valores, para aprovechar los beneficios de la IA y mitigar sus riesgos.

El acuerdo que adoptó el Viejo Continente prioriza el cumplimiento de los Derechos Humanos

El nuevo tratado internacional establece un uso responsable de la IA

Con este nuevo tratado, desde el Viejo Continente remarcaron que pretenden garantizar un uso responsable de la IA que respete los derechos humanos, el Estado de derecho y la democracia.

El tratado es el resultado de dos años de trabajo del Comité sobre Inteligencia Artificial (CAI), un órgano intergubernamental que reunió a los 46 Estados miembros del Consejo de Europa, la Unión Europea.

También a 11 Estados no miembros (Argentina, Australia, Canadá, Costa Rica, Estados Unidos, Israel, Japón, México, Perú, la Santa Sede y Uruguay), así como a representantes del sector privado, la sociedad civil y el mundo académico como observadores.

El convenio regula el uso de sistemas de IA tanto en el sector público, e incluye empresas que actúan en su nombre, como en el privado.

Ofrece dos vías para que las partes cumplan sus principios y obligaciones al regular el sector privado:

Este enfoque flexible es necesario dada la diversidad de sistemas jurídicos en todo el mundo.

Nuevo enfoque en los Derechos Humanos

El tratado establece requisitos de transparencia y supervisión adaptados a contextos y riesgos específicos, incluyendo la identificación de contenidos generados por IA.

Las partes deberán adoptar medidas para identificar, evaluar, prevenir y mitigar posibles riesgos y considerar la necesidad de moratorias, prohibiciones u otras medidas cuando los riesgos sean incompatibles con las normas de derechos humanos.

También deberán garantizar la rendición de cuentas por impactos negativos y que los sistemas de IA respeten la igualdad, la prohibición de la discriminación y el derecho a la privacidad.

Además, las partes deben garantizar recursos legales para las víctimas de violaciones de derechos humanos relacionadas con el uso de IA y asegurar que todas las personas que interactúen con sistemas de IA sean notificadas de ello.

En cuanto a los riesgos para la democracia, el tratado requiere medidas para garantizar que la IA no se utilice para socavar las instituciones y procesos democráticos, incluyendo la separación de poderes, la independencia judicial y el acceso a la justicia.

Aunque las actividades relacionadas con la seguridad nacional no están obligadas a cumplir las disposiciones del tratado, deben respetar el derecho internacional y las instituciones democráticas.

El nuevo tratado de Inteligencia Artificial adoptado por el Viejo Continente también busca respetar el Estado de derecho y la democracia

Nuevo tratado de regulación de IA: cuándo no se aplicará

El convenio no se aplicará a asuntos de defensa nacional ni a actividades de investigación y desarrollo, excepto cuando las pruebas de IA puedan interferir con los derechos humanos, la democracia o el Estado de derecho.

Para asegurar su aplicación, el tratado establece un mecanismo de seguimiento a través de una Conferencia de las Partes.

Finalmente, el convenio exige que cada parte establezca un mecanismo de supervisión independiente para asegurar el cumplimiento del tratado, promover la sensibilización y el debate público informado, y realizar consultas con múltiples partes interesadas sobre el uso de la IA.

El convenio marco se abrirá a la firma en Vilna (Lituania) el 5 de septiembre, y coincide con una conferencia de ministros de Justicia.

Te puede interesar