Google ha actualizado sus principios de Inteligencia Artificial (IA), eliminando una cláusula clave en la que se comprometía a no desarrollar ni implementar herramientas de IA con fines bélicos o de vigilancia.

La modificación fue detectada por Bloomberg y The Washington Post, que intentaron contactar a la empresa para aclaraciones, pero no obtuvieron respuesta.

Desde su primera publicación en 2018, los Principios de IA de Google establecían que la empresa no diseñaría tecnologías que "causen o puedan causar daño general", incluyendo armas y sistemas de vigilancia.

Sin embargo, en su reciente actualización, la compañía eliminó esta restricción sin realizar un anuncio explícito.

Tras la modificación, Google emitió un comunicado titulado "IA responsable", en el que el CEO de Google DeepMind, Demis Hassabis, y el vicepresidente senior de Tecnología y Sociedad, James Manyika, explicaron la nueva estructura de sus principios.

Ahora se organizan en tres áreas clave:

A pesar de estos cambios, la empresa no mencionó explícitamente la eliminación del compromiso sobre el uso de IA en armamento.

Esta decisión ha generado interrogantes sobre el rumbo que tomará Google en el desarrollo de esta tecnología y su posible uso en sectores sensibles como la defensa y la seguridad.

Por ahora, la compañía asegura que seguirá investigando y evaluando los riesgos de la IA mediante la consulta con expertos externos, aunque sin aclarar los motivos detrás de esta modificación en su política

Te puede interesar