La inteligencia artificial (IA), cuyo objetivo principal es simular procesos cognitivos humanos para resolver problemas de manera eficiente y efectiva, ya está entre nosotros y promete quedarse.

Cada vez son más las personas que utilizan esta tecnología en diversas áreas de sus vidas y en campos tan diversos como la atención médica (por ejemplo, diagnóstico médico asistido por IA), la atención al cliente (mediante chatbots y sistemas de respuesta automática), la industria manufacturera (para optimizar la producción y la logística), el sector financiero (en análisis de riesgos y detección de fraudes) y la educación (en sistemas de tutoría personalizada), entre otros.

Incluso en Argentina hasta nuestro presidente, Javier Milei es un declarado usuario de la IA para su comunicación en redes sociales.

También vemos videos e imágenes creados con esta tecnología, donde algunos son virales por llevar mensajes efectivos y otros por la magnífica recreación artificial de personas públicas transmitiendo mensajes que nunca se dieron o incluso copiando discursos del siglo pasado con los personajes actuales para poder asociar ideologías similares.

Incluso, recientemente fue noticia, el reconocido evento de moda a nivel mundial, La Met Gala, dónde imágenes de artistas que ni siquiera asistieron al mismo, recreadas con IA, fueron las protagonistas de la noche y pusieron en evidencia la capacidad de la tecnología para generar contenido falso que induce a confusión.

Por todo esto, podemos afirmar que la IA hoy es el copiloto ideal de nuestras tareas diarias, al permitirnos acelerar tiempos de respuesta e incrementar nuestra productividad.

Sin embargo y pese a estas virtudes, ha recibido severas críticas dónde se la acusa de atacar contra el trabajo de las personas. Una evaluación que considero errónea, ya que personalmente no soy partidario de que las nuevas tecnologías sean un problema para la generación de nuevos puestos de trabajo.

Incluso, está demostrado que con cada avance tecnológico los puestos de trabajo se transforman en puestos más calificados, mejor remunerados y más productivos.

Entonces, se preguntarán ustedes cuáles son los riesgos que yo creo que debemos enfrentar. Acá les comparto mi reflexión: Cuando la IA pasa de copiloto (asistente o colaborador) a piloto (actuar independientemente, tomar decisiones complejas y realizar tareas sin intervención humana directa) representa un grave peligro: La pérdida de confianza generalizada.

La característica principal de esta nueva tecnología es que tiene cierta autonomía para crear algo dentro de los parámetros provistos por nosotros mismos. Esta creación artificial no distingue si es algo bueno o algo malo, ni si está dentro de la ley o noá. Es solo una creación digital creada por un algoritmo programado por nosotros mismos.

Entonces, ¿qué pasaría si en vez de usar la IA para la comunicación efectiva se utilizara para usos indebidos?

No poder distinguir entre la información diaria cuál es real y cuál fue recreada artificialmente puede representar un peligro de pérdida de confianza generalizada, lo que conlleva grandes conflictos, ya que la mayoría de las economías funcionan con confianza. Sin ella no tendríamos sistema financiero, comercio internacional ni comercio electrónico.

Ante este riesgo inminente, ¿qué podemos hacer? Debemos tener en cuenta que la IA es solo un algoritmo que recrea cosas a nuestro pedido. Desde el punto de vista técnico es la evolución de las redes neuronales recurrentes que son muy usadas en muchísimas soluciones digitales.

¿Puede un algoritmo ser sentenciado por mal uso? ¿Puede un algoritmo ser regulado para hacer algunas cosas sí y otras no? La respuesta es clara. Sería como querer regular internet, una red digital global con múltiples jurisdicciones. No es viable.

¿Cómo podemos entonces resolver un posible problema de confianza masivo generado por nosotros mismos utilizando IA?

Existe una tecnología autónoma, descentralizada e inmutable dónde la confianza no es la base del funcionamiento. Esta tecnología llamada blockchain se desarrolla en base a "don't trust verify" (no confíes verifica").

Si bien suena futurista plantear como solución una tecnología controlando a otra tecnología, esta forma es utilizada en muchos campos autónomos, como por ejemplo los sistemas de alertas aéreos y de controles industriales, que son simples algoritmos controlando otros robots autónomos.

Por lo tanto, ante una inminente IA evolucionando de copiloto a piloto, la verificación de un sello inmutable de origen en la blockchain, resolvería el problema de confianza, convirtiéndose en un nuevo caso de uso dónde una tecnología controla a la otra.

*José Luis del Palacio es cofundador de Decrypto

Te puede interesar