Eric Schmidt, quien fue CEO de la compañía entre el 2001 y el 2011, se refirió al papel de la IA en la humanidad y los riesgos que trae su crecimiento
17.12.2024 • 11:41hs • TECNOLOGÍA
TECNOLOGÍA
"Habrá que desconectarla": la dura advertencia de un ex CEO de Google por el avance de la IA
La inteligencia artificial avanza a una velocidad que promete revolucionar nuestra vida, pero su rápido crecimiento también genera temor: ¿podremos controlarla a medida que supera nuestra comprensión?
En esta línea, uno de los principales miedos de la humanidad es que llegue un momento en el cual esta tecnología tenga su propia consciencia.
En este sentido, un antiguo CEO de Google aseguró que, cuando esto suceda, tendremos que plantearnos "desconectar" los sistemas de IA.
En una entrevista con el canal estadounidense ABC, Schmidt indicó que cuando un sistema informático llega a un punto en el que puede auto-mejorarse, "en serio tenemos que pensar en desconectarlo".
Asimismo, cuando el presentador del programa "This Week" le preguntó si un sistema tan poderoso como la IA podría ser capaz de evitar su desconexión, este le respondió: "En teoría, es mejor que tengamos a alguien con la mano en el enchufe".
Además, Schmidt también explicó que el poder de la IA significa que "todas y cada una de las personas van a tener el equivalente de un polímata en su bolsillo" y que no se sabe lo que significa dar ese tipo de poder a cada individuo.
Temor por el rápido avance de la IA
Hace un año, el ex CEO de Google indicó que las computadoras podrían, en un plazo de dos a cuatro años, tomar decisiones de forma autónoma. Ahora, un año después, Schmidt señaló que en tan solo uno o dos años, los sistemas impulsados por IA podrían estar realizando investigaciones de manera independiente.
En esta línea, al ser cuestionado acerca de qué haría si tuviera el control absoluto sobre la inteligencia artificial a nivel global, Schmidt contestó que su prioridad sería garantizar que Occidente cuente con los recursos económicos, tecnológicos y humanos necesarios para gestionarla.
Además, resaltó que trabajaría en identificar "los peores escenarios posibles" de uso y desarrollaría un segundo sistema para supervisar al primero.
"Los humanos no podrán controlar la IA directamente. Pero los sistemas de IA sí deberían ser capaces de vigilar a otros sistemas de IA", concluyó.