OpenAI quiere poner en práctica las ideas del público sobre cómo garantizar que sus futuros modelos de IA se ajusten a los valores de la humanidad
17.01.2024 • 11:20hs • Innovación
Innovación
Conocé los resultados que compartió OpenAI de su programa de u$s1 millón
OpenAI, la reconocida empresa liderada por Sam Altman, destacó cinco lecciones significativas aprendidas de su programa de subvenciones de u$s1 millón para involucrar al público en la toma de decisiones sobre cómo debería comportarse la inteligencia artificial para alinear mejor sus modelos con los valores de la humanidad.
En mayo de 2023, la empresa anunció que se prepara para otorgar 10 subvenciones de u$s100.000 cada una para experimentos en la creación de un "concepto de prueba", un proceso democrático para determinar las reglas que los sistemas de inteligencia artificial deben seguir.
En una entrada de blog el 16 de enero, la empresa describió cómo los 10 equipos receptores de subvenciones innovaron en tecnología democrática, lecciones clave del programa de subvenciones y los planes de implementación de OpenAI para la nueva tecnología democrática.
OpenAI compartió los resultados de su programa
Según la publicación mencionada, los equipos capturaron las opiniones de los participantes de múltiples maneras y encontraron que las opiniones públicas cambiaban con frecuencia, lo que podría afectar la frecuencia con la que deberían ocurrir los procesos de entrada.
OpenAI aprendió que un proceso colectivo debe capturar de manera eficiente los valores fundamentales y ser lo suficientemente sensible para detectar cambios significativos en las opiniones con el tiempo.
Además, algunos equipos encontraron que superar la brecha digital aún es complicado, lo que puede sesgar los resultados. Reclutar participantes a través de la brecha digital fue un desafío debido a limitaciones de plataformas y problemas para entender el idioma o contexto local.
Sin embargo, algunos equipos encontraron difícil ponerse de acuerdo dentro de grupos polarizados, especialmente cuando un pequeño subgrupo tenía opiniones fuertes sobre un problema en particular.
El equipo de Diálogos Colectivos observó que un pequeño grupo se oponía firmemente a restringir a los asistentes de inteligencia artificial para responder preguntas específicas en cada sesión, lo que llevó a desacuerdos con los resultados de la mayoría votante.
Equilibrar el consenso y representar opiniones diversas es desafiante para un resultado único, según OpenAI. El equipo de Inclusive.AI exploró mecanismos de votación, encontrando que los métodos que reflejan los sentimientos fuertes de las personas y aseguran una participación igualitaria se perciben como más democráticos y justos.
Respecto a los temores sobre el futuro de la inteligencia artificial en la gobernanza, el informe establece que algunos participantes estaban nerviosos acerca de la IA en la redacción de políticas, deseando transparencia en su uso.
Sin embargo, después de la deliberación, los equipos notaron un aumento en la esperanza en la capacidad del público para guiar a la inteligencia artificial.