Europa quiere regular a la inteligencia artificial. La región se ha quedado atrás en la carrera tecnológica y sabe que su única mano para empatar la partida es la de la regulación. Por eso, la Comisión Europea presentó a finales de 2020 sus esperadas leyes de Servicios Digitales (DSA) y Mercados Digitales (DMA), sobre las que los colegisladores ya están alcanzando algunos consensos.
Ambas normas están llamadas a regular los contenidos y la capacidad para competir de las grandes plataformas digitales. Aquellas que reúnan ciertos requisitos serán definidas como "garantes del acceso" (de los usuarios a la información y a otros servicios digitales, como redes sociales, reservas de hoteles o comercio electrónico).
Pero solo unos meses después de que la Comisión Europea presentara los borradores de la DSA y de la DMA, también se presentó el borrador del Reglamento de la Inteligencia Artificial. Fue en abril del año pasado y por ahora los colegisladores (Consejo de la Unión Europea y Parlamento Europeo) no han fijado sus posiciones, con lo que a su tramitación todavía le queda un largo recorrido.
Este Reglamento de la IA que ya se cocina en Bruselas define algunos modelos y usos de inteligencia artificial. Por ejemplo, los categoriza en función del nivel de riesgo que un despliegue de esta tecnología puede ocasionar. Una de las cuestiones más llamativas del borrador es que asume en la práctica que el riesgo cero, con esta tecnología, no existe.
El Parlamento Europeo todavía no ha fijado su posición, y en el Consejo de la UE las cosas no están muy distintas. La presidencia francesa espera que antes de que venza su mandato —en junio— al menos se haya logrado dar luz verde a una aproximación generalizada de la que será el texto, como detallan en Euractiv citando a varias fuentes diplomáticas.
El borrador de Bruselas
Este borrador es uno de los ejemplos más palpables de cómo la preocupación por estos riesgos y desafíos algorítmicos sigue creciendo en el Viejo Continente. Al tiempo que el activismo y el debate sobre esta cuestión se amplía, también lo hace el volumen de algunas voces, que recuerdan que la sobrerregulación puede acabar ahogando la innovación.
Pero la Unión no es la única institución europea que quiere abordar los límites éticos de la inteligencia artificial. El Consejo de Europa, organismo que nada tiene que ver con Bruselas y del que forman parte todos los países del Viejo Continente, incluidos Suiza, Turquía o Rusia, también se ha reunido recientemente en Roma.
Lo ha hecho para constituir la Comisión de Inteligencia Artificial de este Consejo de Europa. CAI, por sus siglas en inglés, viene a reemplazar la comisión ad hoc que el mismo organismo supranacional constituyó en 2019. Y fruto de estos encuentros, que acaban de comenzar, esperan proponer un marco regulatorio y ético que concilien IA y derechos humanos.
Crecen los debates sobre si debería regularse la inteligencia artificial, y de ser así, cómo
También España creó y presentó su singular Carta de Derechos Digitales (ahora Bruselas también está trabajando en un documento similar) y el debate sobre los riesgos sociales que puede generar esta tecnología está más vivo que nunca.
Estos son los frentes activos que en Europa tratan de regular los algoritmos para ponerlos al servicio de los seres humanos, y evitar que suceda lo contrario.
Un reglamento europeo que España quiere probar antes que nadie
El Reglamento de IA de la Unión Europea ya está en desarrollo. Aunque el borrador ya reconoce que no hay prácticamente modelos de inteligencia artificial que estén exentos de riesgo, es eso, un borrador. El texto final tardará en llegar y pueden cambiar varias cosas.
De hecho, algunos organismos como el Comité Europeo de Protección de Datos (EDPB) han llegado más lejos que el borrador y han propuesto a las instituciones comunitarias vetar directamente el uso de sistemas de reconocimiento facial en la vía pública. El EDPB es la entidad que reúne a las agencias nacionales de protección de datos (como la española AEPD).
Algunos colectivos en defensa de la privacidad y de la justicia algorítmica han recibido con cierta decepción el borrador que se conoció el año pasado para este nuevo Reglamento. Consideran que el mismo nacerá muy encorsetado y rígido frente a los usos y potenciales riesgos de una tecnología que crece y se desarrolla muy rápido, como exponían algunas voces en TechCrunch.
España quiere ser región piloto del Reglamento de la IA. La Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) dependiente del Ministerio de Asuntos Económicos y Transformación Digital postuló al país como sandbox regulatorio a mediados del año pasado, una iniciativa que partió de la propia secretaria de Estado, Carme Artigas, y avanzó a Business Insider España.
Preocupación por el despliegue de la IA en las fronteras
El Reglamento de la IA buscará regular el uso y despliegue de la inteligencia artificial dentro del territorio Schengen, así como abordar los desafíos éticos que se le presupone. Automatizar procesos sin que estos sean auditados suficientemente puede provocar que se vulnerabilice a determinados colectivos.
Esto ocurre con las personas migrantes. Y el borrador del Reglamento no se detiene tanto en la recopilación de datos que se puede dar en una frontera exterior europea, como son los casos españoles de Ceuta y Melilla. Una comisión interministerial trabaja desde hace años en el desarrollo de una llamada "frontera inteligente".
Partidos como Unidas Podemos han presentado proposiciones no de ley para exigir garantías y transparencia con los modelos de IA que se desplieguen en las fronteras españolas, al tiempo que decenas de colectivos sociales han hecho un llamamiento similar.
El año pasado volvió a los medios el Eurodac. El Eurodac es el enorme almacén de datos biométricos (huellas dactilares) de los solicitantes de asilo que llegan a cualquiera de los 27 estados miembros. Representantes de la extrema derecha en la Eurocámara pretendían ampliar los tipos de datos biométricos recopilados de personas migrantes así como relajar los requisitos para incluirlos.
Con la propuesta sobre la mesa, Eurodac podría incluir incluso fotografías de niños de 6 años.
Los sistemas, soluciones y servicios basados en inteligencia artificial siguen multiplicándose, a un ritmo imposible de parar
Cómo sigue el debate
El debate no ha terminado. En febrero de este mismo año la presidencia francesa del Consejo de la Unión Europea ha expresado su interés en usar el Eurodac para incluir los datos no solo de los solicitantes de asilo, sino de todas las personas inmigrantes que lleguen al territorio Schengen.
El propósito inicial del Eurodac es tener una base de datos con la que comparar las huellas dactilares de los solicitantes de asilo, para evitar que una misma persona solicitara ese asilo en más de un estado miembro y poder de esta manera centralizar los procedimientos en el primer país de llegada.
Con la propuesta francesa, este no sería su único uso. Se trata de una propuesta que además ha apoyado públicamente la comisaria europea de Asuntos Domésticos, Ylva Johansson. "Necesitamos una gobernanza más fuerte para asegurarnos de que nadie llega sin ser detectado y proteger nuestras fronteras exteriores en línea con nuestros valores".
Todavía queda mucho para conocer el texto final del Reglamento de la IA, pero es cierto que la Eurocámara sacó adelante una votación no vinculante que instaba a vetar el uso de esta tecnología con fines de vigilancia policial. La posición del Parlamento Europeo sobre el borrador del Reglamento todavía no se ha consensuado, pero esta votación es un primer paso.
El Consejo de Europa crea su propio Comité para la IA
Mientras todo esto sucede en el seno comunitario, otros organismos internacionales como el Consejo de Europa también trabajan en sus propios mecanismos con los que abordarán una regulación de este tipo de tecnologías.
Mientras que el borrador del Reglamento de la IA europeo ya esboza un veto a usar el DNI para identificarse en un aeropuerto, el Consejo de Europa prácticamente acaba de comenzar a dialogar sobre estos temas.
Si bien es cierto que el CAHAI —el hasta ahora Comité de IA del Consejo de Europa, que era un comité ad hoc— celebró su último pleno en diciembre de 2021, algunas organizaciones civiles que ya han participado en sus debates confían en que la creación de este nuevo Comité (CAI) no suponga ningún retroceso o paso atrás en este debate.
Algorithm Watch, una organización que funciona como observatorio del algoritmo, ha publicado un comunicado conjunto con varias de esas organizaciones civiles que han participado de los debates previos que se han dado en esta institución, en la que están representados países que no forman parte de la Unión Europea.
En su comunicado (que puedes leer aquí) temen que los consensos alcanzados en el comité extinto se puedan quedar "cortos" y exigen al nuevo organismo incluir sin ambages a los modelos de IA empleados en seguridad nacional, o los modelos que tengan usos tanto militares como civiles, en el ámbito de las competencias del futuro instrumento jurídico a desarrollar, indicó Business Insider España.
También inciden en que los nuevos marcos legales que se desarrollen deberán "complementar y reforzar el marco de los derechos humanos y no minar ni reemplazar los estándares existentes que se apliquen a la inteligencia artificial".