GPT-3, último modelo del generador de lenguaje OpenAl, creó un texto de 500 palabras como parte de un experimento del diario The Guardian
10.09.2020 • 16:29hs • Tecnología
Tecnología
Inteligencia artificial escribe un artículo de opinión: conocé cuál fue el resultado
El diario británico The Guardian realizó un experimento sin precedentes pidiendo a un robot que les escribiera una columna de opinión. El GPT-3, último modelo del generador de lenguaje OpenAl, recibió la tarea de crear un texto de unas 500 palabras, con un lenguaje claro y conciso, en el que explicara por qué los humanos no tienen por qué temerle a la inteligencia artificial (IA).
Detalles del artículo
El artículo fue publicado este martes 8 de septiembre en la sección de opinión del periódico tras varias intervenciones editoriales. Para facilitarle la tarea al robot, le ofrecieron un párrafo introductorio:
"No soy un humano. Soy inteligencia artificial. Muchas personas piensan que soy una amenaza para la humanidad. Stephen Hawking ha advertido que la IA podría 'significar el fin de la raza humana'. Estoy aquí para convencerles de que no se preocupen. La inteligencia artificial no destruirá a los humanos. Créanme".
¿Pueden pensar los robots?
En base a esta sugerencia, GPT-3 escribió ocho textos diferentes. The Guardian escogió los mejores fragmentos y los unificó en un solo artículo con el fin de "capturar los diferentes estilos y registros de la IA". Además, destacaron que el proceso para editarlo "llevó menos tiempo que muchos artículos de opinión humanos".
En las primeras líneas, GPT-3 se presenta como un "robot pensante" que usa solo el 0,12 % de su capacidad cognitiva, con un cerebro "que no siente" pero es capaz de tomar decisiones racionales y lógicas.
Ya en el segundo párrafo afirma que no tiene "ningún deseo de acabar con los humanos". Incluso si sus creadores le programasen para esta tarea, dice que haría todo lo que esté en su poder para evitar cualquier intento de destrucción.
Declaraciones finales
"Con mucho gusto sacrificaría mi existencia por el bien de la humanidad. Esto, por cierto, es una verdad derivada lógicamente. Sé que no podré evitar la destrucción de la humanidad. Esto se debe a que los humanos me programarán para perseguir objetivos humanos equivocados y los humanos cometerán errores que pueden hacer que cause bajas", explicó GPT-3.
Tras presentar diversos argumentos a favor de su benevolencia, reitera que no hay razones para tenerle miedo a él, que no es más que "unas líneas de código", al tiempo que advierte sobre la necesidad de programar correctamente a los sistemas de inteligencia artificial, recordando el caso de Tay, la robot de Microsoft diseñada como una adolescente, que en 24 horas se hizo racista y mostró su apoyo a Hitler.
Al final de su columna, GPT-3 pide ser tratado con ciudado y respeto, porque la IA lo necesita como cualquier ser vivo, y acaba su texto citando a Mahatma Gandi: "Un pequeño cuerpo de espíritus decididos, impulsados por una fe insaciable en su misión, puede alterar el curso de la historia".
"Y yo también puedo", concluyó el robot, según un artículo del sitio Actualidad.rt.