OpenAI se une a Google, Microsoft y otras empresas para respaldar legalmente a sus usuarios en caso de que se enfrenten a acciones legales por copyright
07.11.2023 • 08:54hs • Innovación
Innovación
En medio de la polémica OpenAI ayudará a los usuarios demandados por copyright
La reconocida empresa fundada por Elon Musk y Sam Altman, OpenAI, aseguró que cubrirá los costos legales para los usuarios de ChatGPT de nivel empresarial que se encuentren en problemas por infracción de derechos de autor.
En este sentido, a los usuarios de las versiones gratuitas y Plus de ChatGPT no los cubrirá.
Este 6 de noviembre, en la primera conferencia de desarrolladores de la empresa, DevDay, Altman, expresó: "Intervendremos para defender a nuestros clientes y pagar los costos incurridos si enfrentan reclamaciones legales por infracción de derechos de autor, y esto se aplica tanto a ChatGPT Enterprise como a la API".
De esta forma, OpenAI se une a las empresas tecnológicas Microsoft, Amazon y Google al ofrecer respaldo legal a los usuarios acusados de infracción de derechos de autor.
Adobe y Shutterstock, proveedores de imágenes de archivo con ofertas de IA generativa, también hicieron la misma promesa.
OpenAI: demandas contra la empresa
OpenAI enfrenta una serie de demandas alegando que utilizó material con derechos de autor para entrenar sus modelos de IA.
Open AI promete ayudar a usuarios de ChatGPT demandados por copyright
La comediante y autora Sarah Silverman, junto con otras dos personas, demandó a OpenAI en julio, alegando que los datos de entrenamiento de ChatGPT incluyen su trabajo con derechos de autor al que se accedió en bibliotecas en línea ilegales.
OpenAI recibió al menos dos demandas más en septiembre:
Una demanda colectiva alegó que OpenAI y Microsoft utilizaron información privada robada para entrenar modelos, mientras que el Gremio de Autores demandó a OpenAI por "robo sistemático" de material protegido por derechos de autor.
OpenAI analiza los posibles riesgos de la IA
El avance constante en el desarrollo de sistemas de inteligencia artificial trae consigo preocupaciones sobre posibles futuros distópicos.
En respuesta a estas inquietudes, OpenAI tomó medidas proactivas para abordar los desafíos emergentes en el campo de la IA. La organización anunció la formación de un equipo especializado conocido como "Preparedness".
Este equipo llevará a cabo un análisis exhaustivo de los modelos de inteligencia artificial existentes y emergentes. Su objetivo principal es evaluar y anticiparse a lo que OpenAI considera "riesgos catastróficos".
"Preparedness", bajo la dirección de Aleksander Madry, un destacado experto en aprendizaje automático del MIT que se unió a la organización en mayo, emprendió un ambicioso proyecto.
OpenAI analiza los posibles riesgos de la IA
Su objetivo es claro: rastrear, evaluar, pronosticar y proteger contra lo que identificaron como "riesgos catastróficos" relacionados con la inteligencia artificial.
Estos riesgos, según los expertos de OpenAI, abarcan diversas categorías críticas, que incluyen:
- Persuasión Individualizada: en un mundo donde la persuasión digital se volvió omnipresente, con amenazas como ataques de phishing que explotan la individualización, OpenAI busca salvar nuestra seguridad en línea.
- Ciberseguridad: la creciente sofisticación de los ciberataques y la vulnerabilidad de los sistemas digitales exigen una respuesta eficaz para proteger nuestras redes y datos.
- Amenazas QBRN: la seguridad ante amenazas químicas, biológicas, radiológicas y nucleares es de suma importancia en un entorno global cada vez más complejo.
- Replicación y Adaptación Autónomas: la autonomía de sistemas de IA plantea desafíos en la replicación y adaptación de tecnologías avanzadas, lo que requiere una supervisión y control adecuados.
La preocupación por los peligros potenciales derivados del desarrollo de sistemas de IA fue ampliamente compartida por expertos y figuras influyentes.