Expertos debaten sobre la desconfianza ante la Inteligencia Artificial, una tecnología que es furor alrededor de todo el mundo. Todos los detalles
17.11.2023 • 09:14hs • Innovación
Innovación
Expertos debaten sobre la desconfianza ante la IA: conocé sus opiniones
SACA celebró su conferencia Digital Trust World, que reunió en Dublín a líderes de opinión y expertos en confianza digital, ciberseguridad, inteligencia artificial y otros temas relativos a los retos y oportunidades actuales de la industria de IT.
En estas jornadas, se debatió acerca de la desconfianza que generan los sistemas de IA más complejos, que llegan a ser como "cajas negras", ya que los procesos de toma de decisiones resultantes "no son fácilmente comprensibles e interpretables por los humanos".
Jason Lau, miembro del comité directivo de ISACA, asociación de profesionales que ayuda a personas y organizaciones en su empeño por lograr la Confianza Digital, fue uno de los encargados de debatir sobre esta cuestión.
Así, pese a reconocer que el crecimiento exponencial de la inteligencia artificial abrió una nueva era de posibilidades, alerta que su nivel de sofisticación la convierte también en una "tecnología opaca".
Esta opacidad provocó que exista la llamada "paradoja de la confianza", es decir, que cuanto más autónomo es un sistema de inteligencia artificial, más difícil es de comprender y, por lo tanto, mayor es la desconfianza a la hora de utilizarlo.
Desconfianza ante la IA
"Esta falta de transparencia puede llevar a escepticismo y desconfianza, especialmente cuando las decisiones que se derivan de la información obtenida pueden tener consecuencias significativas", expresó Jason Lau.
Expertos debatieron sobre la desconfianza ante la IA
Para los negocios, esta desconfianza se puede traducir en la decisión de no adoptar soluciones de inteligencia artificial, aunque prometan eficiencia e innovación.
Para abordar estas preocupaciones, ISACA desarrolló un documento titulado 'La promesa y peligros de la revolución de la inteligencia: Gestión de riesgos', que proporciona un marco integral para crear y mantener la confianza en los sistemas de IA.
Un marco para una buena aplicación de la IA
Este marco hace hincapié en la necesidad de tres factores clave:
- la transparencia para asegurar que los procesos y las decisiones se puedan explicar y comprender por parte de humanos
- responsabilidad de los sistemas y sus desarrolladores para asumir las consecuencias de sus programaciones
- y ética para asegurar que la inteligencia artificial se desarrolla y utiliza de manera ética y beneficiosa para todos.
En esta línea, tiene también un papel importante la gestión de riesgos.
"Es posible identificar, evaluar y mitigar los riesgos asociados con la inteligencia artificial, de manera que los negocios puedan asegurarse de que exprimen los beneficios de la inteligencia artificial sin comprometer la seguridad, la ética o la transparencia", explicó la asociación.
Para ello, ISACA asegura que son necesarios tres factores:
- una monitorización continua, evaluando regularmente los sistemas de inteligencia artificial para identificar riesgos y vulnerabilidades potenciales
- la implicación de todos los 'stakeholders', desde los desarrolladores hasta los usuarios finales, en el proceso de gestión de riesgos
- y el establecimiento de mecanismos para lograr 'feedback' de los resultados de la IA y garantizar que estos comentarios se utilizan para mejorar y refinar los sistemas.
En este contexto, Jason Lau, explicó que "los procedimientos y guías establecen una posible hoja de ruta para incrementar la confianza en la IA", pero advierte de que "solamente se consigue mantener esa confianza gracias a una acción constante".
Por eso es imprescindible contar con auditorías periódicas, establecer iniciativas transparentes y formar continuamente tanto a los desarrolladores como a los usuarios en las implicaciones éticas de la IA", concluyó.