Los países del G7 acordaron un código de conducta para las empresas e instituciones que desarrollen sistemas de inteligencia artificial (IA).
La medida va dirigida a mitigar riesgos derivados de esta herramienta como la desinformación y la vulneración de la privacidad (o la propiedad intelectual).
Los líderes del Grupo de los Siete (Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido) respaldaron el conjunto de orientaciones para el sector de la IA.
Este proceso fue bautizado como el "Proceso de IA de Hiroshima", según informó la presidencia nipona de turno.
Las medidas tienen por objetivo que "desarrollen sistemas seguros y fiables" las empresas que vayan a trabajar con este tipo de herramientas.
"Hacemos un llamado a las organizaciones que desarrollan sistemas avanzados de IA para que se comprometan con la aplicación del Código Internacional de Conducta", detallaron.
Proceso Hiroshima
De hecho, el comunicado insta a los ministros de los distintos países a que aceleren el proceso hacia el desarrollo del Marco de Política Integral del Proceso de IA de Hiroshima.
"Pedimos a los ministros pertinentes que desarrollen un plan de trabajo antes de fin de año para seguir avanzando en el Proceso de Hiroshima".
Bajo su punto de vista, el desarrollo de este tipo de códigos de conducta ayudarán a desarrollar "un entorno abierto y propicio".
Dentro de ese entorno se podrá diseñar, desarrollar, implementar y utilizar sistemas de IA seguros y confiables para maximizar los beneficios de la tecnología".
Esta nueva normativa tiene como objetivo mitigar los riesgos de la inteligencia artificial y cerrar las brechas digitales respecto a economías "en desarrollo y emergentes".
Por lo tanto, este nuevo código de conducta aspira a regular el desarrollo de la inteligencia artificial para evitar que las empresas puedan hacer usos nocivos de la misma.
Potencial innovador: el mimo del G7 a la inteligencia artificial
El G7 destacó el "potencial innovador y transformador" de los sistemas avanzados de IA, y en particular, de modelos generativos como el bot de conversación ChatGPT.
Al mismo tiempo reconoció la necesidad de "proteger a los individuos, la sociedad y los principios compartidos", además de "mantener a la humanidad en el centro".
Para ello, el Grupo de los Siete puso en marcha el pasado mayo en la cumbre de Hiroshima (oeste) una iniciativa que derivó en la elaboración de once principios para empresas y organizaciones involucradas en el desarrollo de sistemas de IA.
Entre las medidas recomendadas figura contar con la supervisión de observadores independientes en todas las fases de desarrollo y salida al mercado de las IA, y de que sus creadores detecten posibles riesgos de uso indebido y corrijan esas vulnerabilidades.