El avance constante en el desarrollo de sistemas de inteligencia artificial trae consigo preocupaciones sobre posibles futuros distópicos.
En respuesta a estas inquietudes, OpenAI tomó medidas proactivas para abordar los desafíos emergentes en el campo de la IA.
La organización ha anunciado la formación de un equipo especializado conocido como "Preparedness".
Este equipo llevará a cabo un análisis exhaustivo de los modelos de inteligencia artificial existentes y emergentes. Su objetivo principal es evaluar y anticiparse a lo que OpenAI considera "riesgos catastróficos".
Preparedness: evaluando los riesgos de la Inteligencia Artificial
"Preparedness", bajo la dirección de Aleksander Madry, un destacado experto en aprendizaje automático del MIT que se unió a la organización en mayo, ha emprendido un ambicioso proyecto.
Su objetivo es claro: rastrear, evaluar, pronosticar y proteger contra lo que han identificado como "riesgos catastróficos" relacionados con la inteligencia artificial.
OpenAI busca garantizar los conocimientos y la infraestructura necesaria para la seguridad de sistemas de inteligencia artificial altamente capaces.
Estos riesgos, según los expertos de OpenAI, abarcan diversas categorías críticas, incluyendo:
- Persuasión Individualizada: en un mundo donde la persuasión digital se ha vuelto omnipresente, con amenazas como ataques de phishing que explotan la individualización, OpenAI busca salvar nuestra seguridad en línea.
- Ciberseguridad: la creciente sofisticación de los ciberataques y la vulnerabilidad de los sistemas digitales exigen una respuesta eficaz para proteger nuestras redes y datos.
- Amenazas QBRN: la seguridad ante amenazas químicas, biológicas, radiológicas y nucleares es de suma importancia en un entorno global cada vez más complejo.
- Replicación y Adaptación Autónomas: la autonomía de sistemas de IA plantea desafíos en la replicación y adaptación de tecnologías avanzadas, lo que requiere una supervisión y control adecuados.
La preocupación por los peligros potenciales derivados del desarrollo de sistemas de IA ha sido ampliamente compartida por expertos y figuras influyentes.
Incluso Sam Altman, el CEO de OpenAI, apoya la regulación en este ámbito, reconociendo la importancia de un enfoque ético y responsable en la creación de estos modelos.
Prepararse para lo impredecible
OpenAI, líder en el desarrollo de inteligencia artificial, reconoce la complejidad de anticipar todas las amenazas que puedan surgir con el avance de sus sistemas.
Por esta razón, han lanzado una convocatoria abierta para que cualquier interesado envíe estudios relacionados con los riesgos potenciales.
Como incentivo, ofrecen un premio de 25.000 dólares y la posibilidad de unirse al equipo Preparedness para los 10 mejores estudios.
Sam Altman, el CEO de OpenAI, respalda la regulación en este ámbito.
La tarea es animar a los participantes a imaginar que tienen acceso a los modelos más avanzados de OpenAI, como Whisper, GPT-4V o DALLE-3. La pregunta que deberán hacerse es: ¿cuál sería el uso más catastrófico que podría darse a estos modelos?
El equipo Preparedness no solo evaluará riesgos, sino que también desarrollará guías y documentos para diseñar pruebas que se ejecutarán antes y después del desarrollo de estos sistemas.
Aunque OpenAI prevé que sus sistemas superarán las capacidades actuales, reconocen los riesgos crecientes que conllevan.
La preparación es esencial para garantizar tanto los conocimientos como la infraestructura necesaria para la seguridad de sistemas de inteligencia artificial altamente capaces.
Inteligencia artificial: el plan de OpenAI para controlarla
En un comunicado en su sitio de prensa, la empresa indicó que idearon un equipo de trabajo específico para dedicarse a ella, con mecanismos de gestión y control para estos sistemas 'superinteligentes'.
Este equipo se enfocará en mejorar las investigaciones con 'sistemas de alineación', entendido como el análisis de procesos que garanticen que los desarrollos IA entreguen resultados deseados de acuerdo a una serie de parametros pautados por los humanos.
OpenAI, desarrollador de la inteligencia artificial ChatGPT, propuso otro sistema IA para contrarrestar los alcances perjudiciales para la humanidad que esta pueda generar.
Esta infraestructura podría ser utilizada para desarrollar lo que desde la compañía describen como un 'investigador de alineación automatizado a nivel humano', que busca entrenar sistemas de IA con base en comentarios humanos para cumplimentar tareas de asistencia en la evaluación humana del avance de esta herramienta.
Desde OpenAI consideran que la superinteligencia podría ser una realidad esta misma década, ya que la capacidad de la IA también entraña un riesgo que podría llevar "al desempoderamiento de la humanidad o incluso a la extinción humana".
"No tenemos una solución para dirigir o controlar una IA potencialmente superinteligente y evitar que se vuelva deshonesta. Nuestras técnicas actuales para alinear la IA, como el aprendizaje reforzado a partir de la retroalimentación humana, se basan en la capacidad de los humanos para supervisar la IA", indicó OpenAI al respecto.
Y añadió: "pero los humanos no podrán supervisar de manera confiable los sistemas de inteligencia artificial mucho más inteligentes que nosotros".
Altman, fundador de OpenAI, el presidente Greg Brockman y el científico jefe Ilya Sutskever, admitieron en reiteradas ocasiones que la regulación sobre desarrollos como ChatGPT y otras plataformas basadas IA es de "imperiosa necesidad". Misión para la cual, opinaron, no existe ninguna entidad competente para lograrlo.
¿Desaparecerán trabajos por culpa de la IA?
Según un informe elaborado por Goldman Sachs, el panorama es desolador: al menos 300.000.000 de personas en todo el mundo se quedarán sin trabajos debido a que la inteligencia artificial podrá reemplazar sus funciones.
La inteligencia artificial amenaza con acabar con miles de puestos de trabajo en los próximos años
Frente a un panorama desalentador para algunos trabajadores, este sería el listado de los trabajos que la inteligencia artificial reemplazaría:
- Operadores de caja y trabajadores de supermercados
- Trabajadores en la industria manufacturera
- Conductores de camiones y repartidores
- Operadores de telemarketing
- Cajeros bancarios
El campo académico también tendrá algunas implicaciones y en este sentido se puede agregar que las más afectadas son aquellas que pueden llegar a ser automatizadas.