En el marco del Foro Económico Mundial, Google compartió la evaluación de los progresos de la compañía en 2022 en Inteligencia Artificial y pone de manifiesto la importancia de seguir los principios para construir la IA con equidad, seguridad, privacidad y responsabilidad.

Por otra parte, destacó que definir y minimizar los riesgos de la Inteligencia Artificial es una necesidad en 2023. Dado que esta tecnología desempeña un papel cada vez más destacado en la economía y la sociedad, se debe avanzar en prácticas responsables y la colaboración entre compañías, reguladores y la sociedad para maximizar sus beneficios.

La evolución de los principios

En 2018, Google fue una de las primeras compañías en publicar sus Principios de la Inteligencia Artificial, y en establecer límites para las aplicaciones que no se desarrollarán. Estos principios orientan las decisiones en materia de investigación, diseño y desarrollo de productos, así como las formas de resolver los desafíos operativos, de diseño y de ingeniería. Sin embargo, no son reglas estancas, evolucionan al igual que lo hace la tecnología. Por este motivo, la compañía presentó su 4º informe anual sobre los avances en los Principios de la IA, la revisión de su compromiso con el desarrollo responsable de tecnologías emergentes como la inteligencia artificial.

Este informe es un análisis exhaustivo que revela cómo se ponen en práctica los Principios de la IA y la necesidad de una estructura de gobernanza formalizada que respalde la aplicación de los mismos, así como rigurosas pruebas y revisiones éticas. También expone los tres pilares de la gobernanza de los Principios de la IA, para ayudar a más compañías a crear un enfoque estructurado en los equipos de investigación, operaciones y productos.

Tres pilares de la gobernanza de los principios de la IA

El desafío es lograr unirnos a la inteligencia articial, no que nos domine o suplante

Los principios de la IA

Caso de aplicación: Reducir sesgos de género en el Traductor de Google

Los investigadores del equipo Translate desarrollaron recientemente un nuevo conjunto de datos para estudiar y prevenir el sesgo de género en el aprendizaje automático, en consonancia con el Principio #2 de la IA: "evitar el sesgo injusto". Esta investigación exploró la traducción de género entre inglés y español, e inglés y alemán. 

Los métodos tradicionales de traducción automática neural traducen las frases una por una, pero la información sobre el género puede no aparecer explícitamente en cada oración. Para superar este desafío, los investigadores construyeron un nuevo modelo que incorpora el contexto de las frases que siguen para mejorar la precisión del género cuando se traducen pronombres personales.

Te puede interesar