En todos los ámbitos de nuestra vida, la diaria, la de negocios, la de investigación, la educativa, o la robótica, la inteligencia artificial está jugando un papel crucial, llevando la tecnología a lugares donde antes no se pensaba que podía estar.
Y el objetivo de su uso es mejorar la calidad de vida y la de optimizar procesos, pero hay algunas personas, como el investigador Max Tegmark, que ven que si no se usan de la forma adecuada, pueden traer resultados opuestos a los que se quiere obtener.
Lograr el éxito en la creación de la inteligencia artificial (IA) sería el mayor evento en la historia humana. Tanto si es por la máxima potencialización de sus beneficios como de los riesgos que puede conllevar su uso. Por un lado, se podría lograr erradicar las guerras, las enfermedades y la pobreza. Y por otro, se podría usar para crear máquinas asesinas y autónomas que puedan elegir sus propios objetivos, incrementar el desempleo hasta niveles inimaginables y, por lo tanto, aumentar la pobreza y generar más guerras y caos, según han advertido grandes científicos.
Es difícil predecir cuál de los dos caminos seguirá el transcurrir del futuro o si serán ambos. Desafortunadamente, y esto se deduce por aprendizaje de la historia, "lo más probable es que el escenario sea este último, a menos que se logre aprender a evitar los riesgos. Lo más importante es que estamos a tiempo", señalaron científicos como Stephen Hawking, entre otros.
Estas predicciones pueden parecer de ciencia ficción; sin embargo, primero, la inteligencia artificial ya existe; segundo, está presente en la cotidianidad de gran parte de la humanidad; tercero, se están tomando decisiones sobre su funcionamiento; cuarto, cada vez está evolucionando más, y quinto, hay alarmas sobre su uso negativo.
La inteligencia artificial que funciona hoy en día se conoce como estrecha o débil, ya que está diseñada para realizar una tarea en específico, por ejemplo, solo reconocimiento facial o búsquedas en internet o solo conducir un automóvil. Sin embargo, el objetivo a largo plazo de muchos investigadores es crear general o fuerte. Para que se entienda la magnitud de su potencialidad: si bien la inteligencia artificial estrecha ya puede superar a los humanos en algunas tareas específicas como jugar al ajedrez o resolver ecuaciones, la inteligencia artificial fuerte superaría a los humanos en casi todas las tareas cognitivas.
A largo plazo, una pregunta importante es qué sucederá si la búsqueda de una inteligencia artificial fuerte tiene éxito y un sistema se vuelve mejor que los humanos en todas las tareas cognitivas. Esto no es algo nuevo, ya se había advertido.
El matemático I. J. Good, quien trabajó durante la Segunda Guerra Mundial descifrando los códigos secretos de los alemanes y que en 1965 escribió tratados como ‘Especulaciones sobre la primera máquina ultrainteligente’ y ‘La lógica del hombre y la máquina’, aseguró: "Deje que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; indudablemente habría una ‘explosión de inteligencia’, y la inteligencia del hombre quedaría muy atrás. Así, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer".
La mayoría de los investigadores coinciden en decir que están de acuerdo en que es poco probable que una inteligencia artificial superinteligente muestre emociones humanas como el amor o el odio, y que no hay razón para esperar que la inteligencia artificial se vuelva intencionalmente benevolente o malévola. En cambio, al considerar cómo la inteligencia artificial podría convertirse en un riesgo, los expertos piensan dos escenarios más probables: que sea programada para hacer algo devastador o que sea programada para hacer algo beneficioso, pero desarrolle un método destructivo para lograr su objetivo.
"Entonces, frente a posibles futuros de beneficios y riesgos incalculables, los expertos seguramente están haciendo todo lo posible para garantizar el mejor resultado, ¿verdad? Incorrecto. (...) Aunque estamos enfrentando potencialmente lo mejor o lo peor que le ha pasado a la humanidad, se dedica poca investigación seria a estos temas", advirtieron en una carta publicada en el año 2014 no cuatro ‘conspirólogos’, sino cuatro grandes científicos, empezando por Stephen Hawking, Stuart Russell (profesor de Ciencias de la Computación en Berkeley y coautor de ‘Inteligencia artificial: un enfoque moderno’), Frank Wilczek (profesor de Física en el MIT y premio Nobel 2004 por su trabajo en la fuerza nuclear fuerte).
Y otro personaje más, Max Tegmark, profesor de Física e Investigación de inteligencia artificial en el MIT, uno de los más importantes defensores y promotores del uso positivo de la tecnología como presidente del Future of Life Institute, y uno de los pocos investigadores sobre el buen uso de la inteligencia artificial. Autor de más de 250 publicaciones, así como de varios ‘best sellers’. En la carta que él también firmó decía: "Todos nosotros, no solo los científicos, industriales y generales, debemos preguntarnos qué podemos hacer ahora para mejorar las posibilidades de obtener los beneficios y evitar los riesgos".
Para el investigador "No hay límite con lo que pueda pasar si optimizamos las máquinas y estas sean capaces de superarnos. Pero imaginen por un momento la lista de sus líderes favoritos en el mundo, imaginen que tienen el control sobre la IA y la pueden impulsar en todo el planeta. ¿Cómo se sentiría sobre eso? Entonces, es mucho peor si esa persona que puede controlar el mundo con IA es un dictador y no el líder que ustedes se imaginan. Hemos aprendido con la historia las cosas horribles que pasan si la gente se rehúsa a las órdenes de ese tipo de gente, entonces imagínese si los seguidores son máquinas que son completamente obedientes...".
Pero hay que pensar no en cómo evolucionará la inteligencia artificial, sino en cómo queremos que lo haga. A ese respecto Tegmark asegura que "No debemos pensar en qué pasará, sino que debemos empezar preguntando qué es lo que queremos que pase. Este futuro no está escrito. Depende mucho de nosotros cómo será. Y podemos compartir una visión positiva. Sin embargo, suele pasar lo opuesto. Me gusta comparar con la manera como la gente piensa individualmente sobre su futuro. Por ejemplo, vamos al cine, vemos ciencia ficción y el futuro siempre es distópico. Si pasas tu vida personal solo haciendo la lista de todas las enfermedades que podrías tener, o todas las cosas malas que te podrían pasar, te conviertes en un paranoico hipocondríaco, no es la mejor estrategia de vida. Y yo siento que tenemos que escapar de esto como especie, deberíamos tener una visión más optimista sobre el futuro".
Incluso el investigador piensa que ya debería pensarse en algún tipo de regulación para con la inteligencia artificial: "es un problema muy grave. Toma mucho tiempo crear nueva legislación, y para cuando está ya es muy tarde porque la tecnología ya habrá evolucionado. La clave está en crear una línea moral que rechace el uso negativo de la tecnología. Por ejemplo, si las armas biológicas hoy no fueran ilegales, la gente igual tiene claro que son asquerosas. Es como si le ofrecieran trabajo a alguien en una página web de pornografía infantil. Si la gente piensa que es asqueroso y que además desestabiliza la democracia, incluso si fuera legal, en la práctica habría formas de detener su uso".
Con respecto al trabajo del futuro, el catedrático cree que algunas carreras desaparecerán. "Trabajos que son repetitivos y que no involucran contacto con otros humanos. Pero lo que es mucho más importante es que en casi todos los trabajos desaparecerán algunas funciones, y eso significa que en cualquier trabajo en el que quiera estar tendrá que aprender qué está pasando con la inteligencia artificial. De ahí que se debe empezar a usar estas herramientas para ser más productivo".
Incluso va un poco más allá: "si la inteligencia artificial sigue progresando, va a hacer los trabajos más económicos, entonces, ¿queremos nosotros que cada vez los humanos trabajen menos y estén sentados tomando margaritas y los niveles de desempleo sean mayores y haya más hambre? Creo que tiene más sentido para los gobiernos y las empresas generar empleos en los que la gente sea feliz. Los trabajos no solo nos dan dinero, nos dan un propósito, nos dan amigos. Una sociedad más feliz es en la que tengamos humanos haciendo las cosas que disfrutan hacer".
Finalmente, en cuanto al rol de la educación, Tegmark comenta que "La inteligencia artificial puede hacer de la educación algo mejor. Hay dos vertientes: inteligencia artificial para la educación, cómo transformarla para que sea mejor, y la segunda es cómo educar a la gente para que florezca en un mundo donde reine la inteligencia artificial. Cuando yo fui a la escuela, la mayoría de lo que me enseñaron era inútil, quizá era útil para el mundo de 50 años atrás. Creo que hay muchas formas de hacer la educación más útil, más individual, pero también pienso que debemos ser cuidadosos en pensar que las tecnologías son una nueva religión y asumir que se puede, por ejemplo, reemplazar a los profesores por máquinas que lo harán mejor. Necesitamos encontrar el balance, pero hay muchas oportunidades. La creatividad es fundamental, indicó El Tiempo.