Las Big Tech y las empresas emergentes se unieron en un pacto sin precedentes y acordaron con la Casa Blanca que sus productos de IA serán seguros
28.07.2023 • 09:08hs • Innovación
Innovación
Temor por la Inteligencia Artificial: EEUU y sys big techs firman un acuerdo de regulación
La Casa Blanca encontró quien escuche sus inquietudes sobre la inteligencia artificial: las grandes compañías tecnológicas Amazon, Google, Meta y Microsoft y las empresas emergentes del sector OpenAI, Anthropic e Inflection firmaron un acuerdo por el que se comprometen a cumplir con una serie de principios para regular el desarrollo y uso de la IA.
El pacto establece un marco para garantizar que la IA se desarrolle y utilice de forma segura, ética y responsable. De hecho, los firmantes se comprometen a que sus productos de inteligencia artificial sean seguros antes de lanzarlos.
Asimismo, acordaron que habrá una supervisión por parte de terceros —a los que llaman "equipos rojos"— del funcionamiento de sus sistemas comerciales de inteligencia artificial, aunque no detallan quién auditará la tecnología o responsabilizará a las empresas.
También se comprometieron a llevar a cabo pruebas de seguridad "realizadas en parte por expertos independientes", según el comunicado de la Casa Blanca, y a informar de las vulnerabilidades de sus sistemas, así como de los fallos o los riesgos.
En el terreno audiovisual, usarán marcas de agua digitales para ayudar a distinguir entre las imágenes reales y las generadas por IA, las llamadas "deepfake".
¿Cuál es el objetivo del pacto?
Los compromisos voluntarios están destinados a ser una forma inmediata de abordar los riesgos antes de un impulso a más largo plazo para lograr que el Congreso apruebe leyes que regulen la tecnología.
Grandes empresas quieren regular la IA
Tal y como expresa el documento: "Son solo un primer paso para desarrollar y hacer cumplir obligaciones vinculantes para garantizar la seguridad y la confianza".
Algunos defensores de las regulaciones de IA resaltaron que este movimiento de Joe Biden es "un comienzo", pero que "se necesita hacer más" para responsabilizar a las empresas y sus productos.
En el documento, el presidente estadounidense asegura que "cumplir la promesa y minimizar el riesgo de la IA requerirá nuevas leyes, reglas, supervisión y cumplimiento".
"La Administración Biden-Harris continuará tomando medidas ejecutivas y buscará una legislación bipartidista para ayudar a Estados Unidos a liderar el camino en innovación y protección responsables. A medida que avanzamos en esta agenda en casa, trabajaremos con aliados y socios en un sólido código de conducta internacional para regir el desarrollo y uso de la IA en todo el mundo", añade.
Los compromisos del pacto
El documento subraya tres principios que deben ser fundamentales para el futuro de la IA: seguridad, protección y confianza. De esta forma, las empresas que firmen este acuerdo voluntario se comprometen a:
- Asegurarse de que sus productos sean seguros antes de presentarlos al público: eso significa probar la seguridad y las capacidades de sus sistemas de IA, someterlos a pruebas externas, evaluar sus posibles riesgos biológicos, de ciberseguridad y sociales, y hacer públicos los resultados de esas evaluaciones.
- Crear sistemas que prioricen la seguridad: eso significa salvaguardar sus modelos contra amenazas internas y cibernéticas y compartir las mejores prácticas y estándares para evitar el uso indebido, reducir los riesgos para la sociedad y proteger la seguridad nacional.
- Hacer lo correcto por el público y ganarse la confianza de la gente: eso significa facilitar que los usuarios sepan si el contenido de audio y visual está en su forma original o fue alterado o generado por IA. Significa garantizar que la tecnología no promueva el sesgo y la discriminación y, significa también, usar la IA para ayudar a enfrentar los mayores desafíos de la sociedad.