SACA celebró su conferencia Digital Trust World, que reunió en Dublín a líderes de opinión y expertos en confianza digital, ciberseguridad, inteligencia artificial y otros temas relativos a los retos y oportunidades actuales de la industria de IT.

En estas jornadas, se debatió acerca de la desconfianza que generan los sistemas de IA más complejos, que llegan a ser como "cajas negras", ya que los procesos de toma de decisiones resultantes "no son fácilmente comprensibles e interpretables por los humanos".

Jason Lau, miembro del comité directivo de ISACA, asociación de profesionales que ayuda a personas y organizaciones en su empeño por lograr la Confianza Digital, fue uno de los encargados de debatir sobre esta cuestión. 

Así, pese a reconocer que el crecimiento exponencial de la inteligencia artificial abrió una nueva era de posibilidades, alerta que su nivel de sofisticación la convierte también en una "tecnología opaca".

Esta opacidad provocó que exista la llamada "paradoja de la confianza", es decir, que cuanto más autónomo es un sistema de inteligencia artificial, más difícil es de comprender y, por lo tanto, mayor es la desconfianza a la hora de utilizarlo.

Desconfianza ante la IA

"Esta falta de transparencia puede llevar a escepticismo y desconfianza, especialmente cuando las decisiones que se derivan de la información obtenida pueden tener consecuencias significativas", expresó Jason Lau.

Expertos debatieron sobre la desconfianza ante la IA

Para los negocios, esta desconfianza se puede traducir en la decisión de no adoptar soluciones de inteligencia artificial, aunque prometan eficiencia e innovación. 

Para abordar estas preocupaciones, ISACA desarrolló un documento titulado 'La promesa y peligros de la revolución de la inteligencia: Gestión de riesgos', que proporciona un marco integral para crear y mantener la confianza en los sistemas de IA.

Un marco para una buena aplicación de la IA

Este marco hace hincapié en la necesidad de tres factores clave:

En esta línea, tiene también un papel importante la gestión de riesgos.

"Es posible identificar, evaluar y mitigar los riesgos asociados con la inteligencia artificial, de manera que los negocios puedan asegurarse de que exprimen los beneficios de la inteligencia artificial sin comprometer la seguridad, la ética o la transparencia", explicó la asociación.

Para ello, ISACA asegura que son necesarios tres factores: 

En este contexto, Jason Lau, explicó que "los procedimientos y guías establecen una posible hoja de ruta para incrementar la confianza en la IA", pero advierte de que "solamente se consigue mantener esa confianza gracias a una acción constante". 

Por eso es imprescindible contar con auditorías periódicas, establecer iniciativas transparentes y formar continuamente tanto a los desarrolladores como a los usuarios en las implicaciones éticas de la IA", concluyó.

Te puede interesar