Mucho se está hablando estas semanas de hacer un "parate" en el desarrollo y aplicaciones de la Inteligencia artificial (IA), de detener el fuego, de los millones de puestos de trabajo que se perderían, y de que todo esto está ocurriendo muy rápidamente sin saber hacia dónde vamos. Ignorando las consecuencias.
Hace unos días, se difundió una foto generada por inteligencia artificial de las fotos del Papa con un abrigo de una prestigiosa marca de ropa que no era de él. Este es un ejemplo que ya conocemos y se llama fake news.
Lo hemos vivido en mensajes, en notas periodísticas, en videos y audios sacados de contexto. La diferencia es que ahora se hizo con una tecnología de inteligencia artificial que es de público uso.
La conmoción creo, es que ahora la tecnología para una posible falsificación o manipulación ya no esté solo en manos de aquellos que tenían grandes equipos de programadores y computadoras, sino que cualquiera puede hacerlo.
Esto no es nuevo. Jensen Huang, el CEO de Nvidia, dio una presentación por video conferenciapara los principales referentes de la industria informática, tecnológica y fanáticos del hardwareen 2021.
Allí habló durante 14 segundos junto con otros videos que presentaban nuevos servicios, tecnologías y productos de su empresa. Meses después se reveló que no era un video real de él, sino que era un humano digital, un deep fake de alta tecnología, un doble virtual tan asombroso con su voz y sus gestos.
Metahumanos
Hasta el último detalle creado en base a imágenes digitales y videos que tomaron en sus laboratorios. No es una tecnología nueva. En su versión libre y más mucho más económica, ya la probamos en el laboratorio de robótica física e inteligencia artificial que dirijo en la UAI.
El año pasado también presentamos en el Congreso Internacional en Innovación Tecnológica (CIITI) qué son los metahumanos o humanos digitales de Unreal (un sistema "motor" para desarrollar videojuegos).
También planteamos el debate e incentivamos a alumnos, profesores e investigadores, a pensar sobre el valor y la responsabilidad de la creación y uso de la tecnología desde lo ético con un impacto positivo en la sociedad.
La idea de que una vez que se soltó al genio de la botella se puede volver a guardar, creo es más bien una ilusión y una preocupación desde una perspectiva comercial, más que del beneficio que puede traer una tecnología que sea de libre acceso.
Pero el foco creo no debe estar ahí, por un lado, está el documento con las 1.300 firmas de personas relevantes que piden hacer un alto fuego de la IA hasta que se pueda evaluar su impacto.
Tarea que como mínimo llevaría varios años realizar e incluso quizás se necesitaría un programa de inteligencia artificial con computadoras cuánticas para hacerlo rápidamente.Pero no se alarmen: no existe hoy en día un programa de IA que pueda hacer de todo, ni una computadora cuántica que pueda realizarlo.
Tecnología avanzada
Es cierto que a veces hay mucha especulación y alarma en torno a ciertas tecnologías o eventos que se perciben como amenazas. Es importante que la información que se comparte con el público sea precisa y esté respaldada por evidencia científica sólida, y no se base únicamente en especulaciones o hipótesis infundadas.
En el caso de las computadoras cuánticas y las redes neuronales, si bien son tecnologías muy avanzadas y complejas, todavía hay mucho que se desconoce acerca de cómo funcionan exactamente.
Pero también es importante destacar que estas tecnologías tienen enormes posibilidades de avance en diversos campos. Un ejemplo cercano del problema de plantear la pregunta equivocada es la reciente y trágica pandemia del COVID-19 que vivió el mundo y en la cual muchos perdieron a amigos o seres queridos.
Quedó en evidencia que es imposible que todos los gobiernos se pongan de acuerdo, que cada uno tomaba sus propias acciones, que unos desconfiaban de los datos del otros. Que muchos informes, proyecciones e investigación se equivocaban y otros, gracias a Dios, estaban en lo correcto.
Las dos preguntas claves que deberíamos realizarnos sobre el enfoque alarmista son, ¿Es posible evaluar el impacto real de una tecnología que no se creó todavía? Creo que no, y digo creo porque no tengo la certeza, pues eso solo IA da evidencia empírica.
Y la otra pregunta es: ¿Es posible ponernos de acuerdo para frenar el desarrollo a nivel mundial de una tecnología como la IA? Creo que también la respuesta es no. Porque basta que un país no frene el desarrollo para sacarle ventaja a todo el resto del mundo.
Por citar solo un ejemplo más reciente, aunque hay otros muchos más antiguos, la ONG Pax de Holanda en 2019 realizó una advertencia sobre el uso de la robótica con fines armamentísticos.
¿Robots armamentistas?
"Si no se frena la carrera armamentista para crear robots asesinos e inteligentes los resultados serán catastróficos", opinó. Muchas universidades y científicos dejaron de colaborar con los países, universidades, empresas que no adherían a la propuesta, y se les negaba la participación en congresos científicos.
A solo cuatro años de esta iniciativa los países que quedaron asilados avanzaron mucho más rápido en los desarrollos propios, se aumentó la inversión interna y, para peor, muchos de los que adherían lo siguieron haciendo al poco tiempo.
Mi optimismo no está en la tecnología, sino en la sociedad, que es capaz de reaccionar ante los cambios negativos, y creó los resortes dentro de los sistemas democráticos que dan batalla contra estos cambios que pueden venir desde el uso de una tecnología.
Estos resortes son las instituciones de gobierno, los sindicatos organizados, las organizaciones sin fine de lucro, las universidades y todo aquel que esté dispuesto a ver un poco más allá, a proponer ideas, realizar estudios y, sin duda, acordar para generar políticas de estado sobre los temas de fondo.
Mi preocupación es que se están haciendo las preguntas equivocadas, y el enfoque está en el árbol y no en el bosque. Creo es necesario generar acuerdos, que se creen equipos de trabajo que participen en investigaciones, en propuestas nacionales e internacionales que permitan regular y fomentar el avance tecnológico, crear leyes antes de sufrir las consecuencias.
*Por Néstor Balich, Director del Laboratorio de Robótica Física e Inteligencia Artificial del Centro de Altos Estudios en Tecnología Informática de la UAI