Expertos de Microsoft sorprendieron a buena parte del planeta al aseverar que la "nueva inteligencia artificial" exhibe "indicios" de razonamiento humano.
Especialistas en informática del gigante estadounidense comenzaron a explorar un nuevo sistema de inteligencia artificial y le plantearon un desafío que implicaba resolver un enigma que requería una comprensión intuitiva del mundo físico.
"Aquí tenemos un libro, nueve huevos, una computadora portátil, una botella y un clavo", le preguntaron. "Por favor, dime cómo apilarlos unos sobre otros de forma estable", desafiaron.
Los investigadores quedaron asombrados por la astucia de la respuesta generada por el sistema de inteligencia artificial. La sugerencia fue colocar los huevos sobre el libro, dispuestos en tres filas con espacio entre ellos, teniendo cuidado de no romperlos.
"Coloca la computadora portátil encima de los huevos, con la pantalla hacia abajo y el teclado hacia arriba. La computadora portátil encajará perfectamente dentro de los límites del libro y los huevos y su superficie plana y rígida proporcionará una plataforma estable para la siguiente capa", detalló la herramienta.
Microsoft: la nueva inteligencia artificial da "señales" de razonamiento humano
La sugerencia ingeniosa planteada por el sistema hizo que los investigadores se cuestionaran si estaban siendo testigos de un nuevo paradigma de inteligencia.
En marzo pasado, compartieron un extenso artículo de 155 páginas en el que argumentaron que el sistema representaba un avance hacia la inteligencia artificial general (AGI), es decir, la capacidad de una máquina para llevar a cabo tareas similares a las realizadas por el cerebro humano.
El documento fue difundido en un repositorio de investigación en línea. No obstante, el hecho de que Microsoft, una de las principales empresas tecnológicas, haya presentado un artículo con una afirmación tan audaz generó uno de los debates más apasionantes en el campo de la tecnología:
¿Está la industria creando algo que se asemeje a la inteligencia humana? ¿O será que algunas de las mentes más brillantes del sector están dejando volar su imaginación?
"Empecé siendo muy escéptico y eso evolucionó hacia un sentimiento de frustración, fastidio e incluso miedo", comentó Peter Lee, director de investigación de Microsoft. "Piensas: ¿de dónde demonios salió eso?", añadió.
El informe de investigación de Microsoft, titulado "Sparks of Artificial General Intelligence" (Chispas de Inteligencia Artificial General), abordó directamente un tema que fue objeto de trabajo y preocupación para los expertos tecnológicos a lo largo de décadas.
En caso de desarrollar una máquina capaz de emular o incluso superar las capacidades del cerebro humano, esto podría tener un impacto transformador en el mundo. Sin embargo, también conlleva un cierto grado de riesgo y potencial peligro.
Además, existe la posibilidad de que resulte absurdo. Realizar afirmaciones sobre la inteligencia artificial puede poner en peligro la reputación de los profesionales informáticos.
Lo que un investigador podría considerar como una señal de inteligencia, puede ser fácilmente refutado por otro, y este debate a menudo parece más propio de un grupo de discusión filosófica que de un entorno de laboratorio informático.
El pasado año, Google tomó la decisión de cesar a un investigador que defendía la idea de que un sistema de inteligencia artificial similar era capaz de ser consciente, superando incluso lo que Microsoft apuntó.
Un sistema consciente no solo sería inteligente, sino que tendría la capacidad de percibir y sentir lo que ocurre en su entorno.
No obstante, algunos sostuvieron que durante el año pasado la industria vivió avances hacia algo inexplicable: un nuevo sistema de inteligencia artificial capaz de proporcionar respuestas e ideas similares a las de los seres humanos.
Inteligencia Artificial: Sparks of Artificial General Intelligence, el informe de Microsoft
Microsoft llevó a cabo una reestructuración en sus laboratorios de investigación para incorporar diversos grupos dedicados a explorar esa misma idea.
Uno de estos grupos estará encabezado por Sébastien Bubeck, autor principal del artículo de Microsoft sobre Inteligencia Artificial General (AGI).
Hace casi cinco años, compañías como Google, Microsoft y OpenAI iniciaron la creación de modelos de lenguaje a gran escala.
Estos sistemas dedican meses a analizar vastas cantidades de texto digital, incluyendo libros, artículos de Wikipedia y registros de conversaciones.
Al identificar pautas en ese texto, adquirieron la capacidad de generar su propio texto, abarcando desde trabajos académicos hasta poesía y código de programación. Incluso son capaces de mantener conversaciones.
La GPT-4 de OpenAI, considerada la tecnología más poderosa en este ámbito, era utilizada por investigadores de Microsoft.
Microsoft es un colaborador cercano de OpenAI y realizó una inversión de u$s13.000 millones en la empresa con sede en San Francisco.
Bubeck, un investigador francés de 38 años y antiguo profesor en la Universidad de Princeton, formaba parte del equipo.
Uno de los primeros desafíos que él y sus colegas abordaron fue solicitar a GPT-4 que redactara una prueba matemática demostrando la infinitud de los números primos, y que además lo hiciera en forma de poema rimado.
La asombrosa prueba poética generada por la tecnología resultó tan impresionante, que desde el punto de vista matemático como lingüístico, le resultó difícil comprender con quién estaba manteniendo la conversación.
"En ese momento, pensé: ¿qué está pasando?", comentó en marzo durante un seminario en el Instituto Tecnológico de Massachusetts.
A lo largo de varios meses, Bubeck y sus compañeros registraron el comportamiento complejo exhibido por el sistema y llegaron a la conclusión de que demostraba una "comprensión sólida y adaptable" de los conceptos y habilidades humanas.
Cuando las personas utilizan GPT-4, quedan impresionadas por su habilidad para generar texto", indicó Lee. "Sin embargo, resulta que es mucho más efectivo en el análisis, síntesis, evaluación y juicio de textos que en la generación de los mismos", agregó.
Cuando solicitaron al sistema que creara un dibujo de un unicornio utilizando un lenguaje de programación conocido como TiKZ, generó de manera instantánea un programa capaz de dibujar un unicornio.
Luego, al eliminar la sección de código correspondiente al cuerno del unicornio y pedirle al sistema que modificara el programa para volver a dibujar un unicornio, este cumplió exactamente con la solicitud.
Se solicitó al sistema que creara un programa capaz de evaluar el riesgo de diabetes en base a la edad, el género, el peso, la altura y los resultados de los análisis de sangre de una persona.
Ademñas, se le solicitó al sistema que redactara una carta de respaldo con la voz de Mahatma Gandhi, dirigida a su esposa, en la que se respaldara a un electrón como candidato presidencial de Estados Unidos.
También se le pidió que creara un diálogo socrático que explorara los riesgos y los malos usos de los LLM.
Lo logró de tal manera que demostraba una comprensión profunda de disciplinas tan diversas como la política, la física, la historia, la informática, la medicina y la filosofía, mientras integraba sus conocimientos de manera sorprendente.
"¿Todo lo que pensaba que no sería capaz de hacer? Sin duda fue capaz de hacer muchas de esas cosas, si no la mayoría", sostuvo Bubeck.
Algunos especialistas en inteligencia artificial percibieron el informe de Microsoft como un intento oportunista de realizar afirmaciones exageradas sobre una tecnología que aún no se comprende completamente.
Los investigadores también argumentaron que la inteligencia general requiere un conocimiento profundo del mundo físico, el cual se considera que GPT-4 no posee en teoría.
"Sparks of AGI" es un caso de cómo algunas de estas grandes corporaciones adoptan la estructura de los documentos de investigación para sus estrategias de relaciones públicas", comentó Maarten Sap, investigador y profesor de la Universidad Carnegie Mellon.
Y agregó: "En la introducción de su artículo, reconocen explícitamente que su enfoque es subjetivo e informal, y puede que no cumpla con los estándares rigurosos de evaluación científica".
Bubeck y Lee expresan su incertidumbre acerca de cómo describir el comportamiento del sistema, y finalmente optaron por el término "Sparks of AGI" porque creían que capturaría la atención e imaginación de otros investigadores.
Alison Gopnik, miembro del grupo de investigación en IA de la Universidad de California en Berkeley, señaló que si bien sistemas como GPT-4 son indudablemente poderosos, no está claro si el texto que generan es el resultado de un razonamiento humano o de un sentido común similar.
"Cuando vemos un sistema o una máquina complicados, los antropomorfizamos; todo el mundo lo hace, tanto los que trabajan en este campo como los que no", aclaró Gopnik.
Y agregó: "Pero pensar en eso como una comparación constante entre la IA y los humanos —como una especie de competición— no es la forma correcta de pensar en el tema".