El organismo acusa a los creadores de ChatGPT de lanzar un producto potencialmente riesgoso al mercado. A continuación, toda la información
03.04.2023 • 09:20hs • Innovación
Innovación
¿OpenAI está en problemas?: por qué el Centro de IA y Política Digital se quejó de la plataforma
Reportaron a los creadores del popular ChatGPT, OpenAI, ante la Comisión Federal de Comercio de EE.UU. (FTC) bajo acusaciones de incurrir en prácticas comerciales engañosas e injustas, según informes recientemente publicados.
El Centro de IA y Política Digital (CAIDP) acusó a OpenAI de violar al menos cinco disposiciones contempladas en la ley de la FTC, e indico que GPT-4 representa riesgos para la seguridad y privacidad, justamente por no cumplir con ciertos estándares de calidad tratándose de IA y sus posibles repercusiones.
Al respecto, en la queja presentada ante la FTC expresó: "Esta semana, el Centro de IA y Política Digital, junto con otros, presentará una queja ante la Comisión Federal de Comercio, solicitando una investigación de Open AI y el producto chatGPT".
"Creemos que la FTC tiene la autoridad para actuar en este asunto y se encuentra en una posición única como la principal agencia de protección al consumidor en los Estados Unidos para abordar este desafío emergente", añadió.
"Le pediremos a la FTC que establezca una moratoria sobre el lanzamiento de versiones comerciales adicionales de GPT hasta que se establezcan las medidas de seguridad adecuadas. Simultáneamente, solicitaremos a la FTC que emprenda una reglamentación para la regulación de la industria de IA generativa".
Quejas contra OpenAI
Además, en el mismo comunicado el Centro de IA y Política Digital indicó: "Favorecemos el crecimiento y la innovación, reconocemos una amplia gama de oportunidades y beneficios que la IA puede brindar".
OpenAI recibió quejas en el último tiempo
A continuación, destacó que al menos que puedan mantener el control de estos sistemas, serán incapaces de gestionar el riesgo que resultará o los resultados catastróficos que puedan surgir.
"Estamos pidiendo a la FTC que "presione el botón de pausa" para que haya una oportunidad para que nuestras instituciones, nuestras leyes y nuestra sociedad se pongan al día. Necesitamos afirmar la agencia sobre las tecnologías que creamos antes de que perdamos el control", concluyó.
La responsabilidad en el desarrollo de la IA
Poco antes de la queja contra OpenAI, la FTC advirtió a los equipos que trabajan en el desarrollo de la Inteligencia Artificial a operar con más responsabilidad, y evitar caer en malas prácticas como exagerar las capacidades de los productos o hacer afirmaciones erróneas sobre su rendimiento.
Al respecto, la FTC indicó: "Necesita conocer los riesgos y el impacto razonablemente previsibles de su producto de IA antes de ponerlo en el mercado. Si algo sale mal, tal vez falla o produce resultados sesgados, no puede simplemente culpar a un desarrollador externo de la tecnología."
Este reclamo llegó pocos días después de que personalidades como Elon Musk, Stuart Russell y Steve Wozniak publicaran un comunicado en el cual pedían a los desarrolladores de IA parar el desarrollo de productos y servicios en este campo por al menos seis meses.
Esto sería para establecer protocolos de seguridad estandarizados que prioricen la seguridad y la ética en cierta medida.
La IA crece día a día
La idea es evitar que la competencia por el desarrollo de modelos de IA lleve a la experimentación irresponsable, dado que de esta forma crearán mentes digitales cada vez más poderosas que nadie puede entender, predecir o controlar de manera confiable.
Los expertos creen que solo debemos desarrollar sistemas de IA más potentes cuando haya la seguridad de que los efectos serán positivos y los riesgos manejables.