La empresa modificó su documento de principios de IA y eliminó la referencia a su compromiso de no desarrollar tecnología para armas o vigilancia.
07.02.2025 • 08:33hs • Tecnología
Tecnología
Polémica por la IA: Google elimina su promesa de no desarrollar tecnología para armas
Google ha actualizado sus principios de Inteligencia Artificial (IA), eliminando una cláusula clave en la que se comprometía a no desarrollar ni implementar herramientas de IA con fines bélicos o de vigilancia.
La modificación fue detectada por Bloomberg y The Washington Post, que intentaron contactar a la empresa para aclaraciones, pero no obtuvieron respuesta.
Desde su primera publicación en 2018, los Principios de IA de Google establecían que la empresa no diseñaría tecnologías que "causen o puedan causar daño general", incluyendo armas y sistemas de vigilancia.
Sin embargo, en su reciente actualización, la compañía eliminó esta restricción sin realizar un anuncio explícito.
Tras la modificación, Google emitió un comunicado titulado "IA responsable", en el que el CEO de Google DeepMind, Demis Hassabis, y el vicepresidente senior de Tecnología y Sociedad, James Manyika, explicaron la nueva estructura de sus principios.
Ahora se organizan en tres áreas clave:
- Innovación audaz en IA, priorizando los beneficios sobre los riesgos.
- Desarrollo y despliegue responsables, con supervisión humana y alineamiento con normas internacionales.
- Creación colaborativa de herramientas de IA, promoviendo un ecosistema de innovación.
A pesar de estos cambios, la empresa no mencionó explícitamente la eliminación del compromiso sobre el uso de IA en armamento.
Esta decisión ha generado interrogantes sobre el rumbo que tomará Google en el desarrollo de esta tecnología y su posible uso en sectores sensibles como la defensa y la seguridad.
Por ahora, la compañía asegura que seguirá investigando y evaluando los riesgos de la IA mediante la consulta con expertos externos, aunque sin aclarar los motivos detrás de esta modificación en su política