A la revolución industrial del siglo XIX se le deben muchos de los avances científicos, económicos y sociales de los dos últimos siglos, pero también algunas sombras: sobre todo la creciente contaminación del planeta y el cambio climático. No hay duda de que aquel fue un proceso traumático.
Una de las reacciones que produjo la industrialización fue destruir máquinas. Pues muchos señalaron a las primitivas máquinas de vapor como las responsables de que se destruyeran gremios enteros de oficios. Hoy surge ante una tesitura similar: la inteligencia artificial puede provocar cambios más radicales que los de llegada de la era industrial en el siglo XIX.
Entre los que advierten del papel negativo que puede jugar la inteligencia artificial en el futuro hay figuras de gran prestigio en la industria tecnológica. Aunque probablemente Elon Musk, director ejecutivo de Tesla, es el más conocido de los que pidió en su cuenta de Twitter una regulación legislativa de esta tecnología.
Además criticaba el papel que cada vez más está desempeñando Open AI por un artículo publicado en MIT Technology Review sobre esta organización sin ánimo de lucro. Open AI nació con la idea de salvaguardar el uso que se puede hacer de la inteligencia artificial mientras se impulsa su desarrollo, según un artículo de La Vanguardia.
Aunque Elon Musk ha pedido el control gubernamental incluso para la tecnología inteligente que pueda producir su propia empresa, Tesla, lo cierto es que el principal peligro al que apuntan los críticos de esta tecnología, como Musk, es la denominada singularidad tecnológica.
Este término designa el momento en el que una inteligencia artificial será tan inteligente como un humano. A partir de ese momento se produciría un crecimiento exponencial de la tecnología artificial. Uno de los escenarios que se contemplan es que mejoraría rápidamente así misma creando una superinteligencia.
¿Qué sucedería entonces? Esta es la gran pregunta que muchos intentan responder. Es difícil saber si una inteligencia creada por el hombre mejoraría la vida de la humanidad, venciendo retos como buscar la cura de enfermedades o atajar el problema del cambio climático, o provocaría la extinción humana. De la misma forma que la llegada del homo sapiens explicaría en parte la desaparición de los neandertales de la faz de la tierra.
No necesariamente las máquinas inteligentes tendrían que atacar a los humanos, como suele suceder en la ciencia ficción. Aunque tampoco ese escenario es descartable. Quizá simplemente a una superinteligencia le sería indiferente la existencia humana, de la misma forma que casi nadie repara en seres vivos diminutos o microscópicos.
Pero esa indiferencia puede ser peligrosa. Las máquinas podrían utilizar para otros fines los recursos de los que hoy dispone el hombre. Por muchos estudios que se realicen, no hay respuestas claras sobre lo que provocaría la creación de una inteligencia superior a la nuestra. Esto no quiere decir que cualquier inteligencia artificial suponga una amenaza.
Raymond Kurzweil, director de ingeniería de Google, en su libro La singularidad está cerca, marca una fecha para la llegada de lo que se denomina inteligencia artificial fuerte: el año 2045. Aunque algunos adelantan esa fecha para dentro de sólo 15 años.
Esta inteligencia artificial fuerte tendrá puntos en común con la inteligencia artificial que hoy se usa, que mayoritariamente busca resolver problemas concretos. Como ser capaz de reconocer una voz o hacer de intérprete entre personas que hablan diferentes idiomas. Algo que no resulta una gran amenaza por muy mal uso que se haga de estas herramientas.
Aunque es cierto que el uso de la inteligencia artificial para usos concretos puede provocar la destrucción de puestos de trabajo, no parece que la actual inteligencia de las máquinas pueda provocar la extinción de la humanidad. Los defensores de la inteligencia artificial dura aseguran que en vez de acabar con el hombre este salto tecnológico le permitirá mejorar como especie.
Es lo que defienden los defensores del transhumanismo, una compleja corriente de pensamiento que en esencia defiende que la evolución de la humanidad se dará fusionando los cuerpos y mentes humanas con las máquinas. Para de esa forma incluso acabar con el propio concepto de muerte.
Hace algunos años Google, una de las empresas que más ha desarrollado la inteligencia artificial mediante la técnica del aprendizaje profundo, patentó la idea de crear un de botón rojo que destruiría una inteligencia artificial si tiene un comportamiento aberrante. Incluso aunque este comportamiento fuese inofensivo.
En alguna ocasión Elon Musk ha comparado el peligro que puede llegar a tener la inteligencia artificial con el de las armas nucleares. Es imposible hoy saber si la comparación es exagerada o no, pero cabe preguntarse qué hubiese sido del mundo si el arsenal nuclear en vez de estar en manos de los gobiernos hubiese estado en manos de empresas.