Desde su llegada, la inteligencia artificial está en el ojo de la tormenta, por lo que expertos enfatizaron la importancia de regularla de manera ética y responsable debido a su rápido avance y las preocupaciones suscitadas en torno a su aplicación.
Esta postura fue respaldada por diversos especialistas durante un foro celebrado en la Universidad Internacional de La Rioja (UNIR), según se informó.
Según Juan Ignacio Rouyet, docente del programa de Máster Universitario en Gemelos Digitales de UNIR, los diversos usos de la inteligencia artificial generaron una preocupación cada vez mayor en el ámbito social y político.
Inteligencia artificial: expertos piden que se regule
El uso de tecnologías como el reconocimiento facial, la vigilancia constante, los sistemas de chat, el arte en ámbitos como la fotografía y la literatura, así como la predicción del comportamiento social, plantearon interrogantes éticas y morales que requieren una atención adecuada y una respuesta adecuada.
"La regulación de la IA es posible y necesaria en nuestra sociedad",comentó RouYet.
Y agregó: "Lograr y respetar la ética es un desafío que requiere la colaboración de Gobiernos, empresas, expertos y la sociedad en su conjunto", pero es "un paso crucial para construir un futuro tecnológico responsable y equitativo".
Expertos europeos piden que la inteligencia artificial sea regulada por razones éticas.
En relación a esto, Juan Pablo Peñarrubia, vicepresidente del Consejo General de Colegios Oficiales de Ingeniería en Informática, señaló que en todas las esferas de la actividad económica y social se tiende a establecer regulaciones legales normativas que son fundamentales y obligatorias, y lo mismo debería aplicarse en el caso de la inteligencia artificial (IA).
Durante el período comprendido entre julio y noviembre, se llevarán a cabo más de 127 reuniones en la Comisión Europea con el propósito de abordar cuestiones relacionadas con la inteligencia artificial (IA).
Se estima que para el año 2024, podría aprobarse la primera legislación europea sobre este tema.
Según Peñarrubia, tanto Estados Unidos como Europa están tomando medidas para establecer marcos legales que impulsen el progreso económico al tiempo que se evalúan los riesgos asociados a la inteligencia artificial (IA) y se protegen los derechos fundamentales.
El objetivo es asegurar la seguridad y la transparencia en la utilización de estas tecnologías.
Según su explicación, Estados Unidos adopta una perspectiva que combina economía y liderazgo, similar a la llegada de la tecnología informática, pero con un enfoque económico y liberal enriquecido por la regulación de los riesgos.
El objetivo es asegurar la seguridad y la transparencia en la utilización de estas tecnologías.
Se busca encontrar un equilibrio entre el impulso económico y la gestión responsable de los riesgos asociados.
En comparación con Estados Unidos, el enfoque europeo hacia la inteligencia artificial (IA) presenta una distinción fundamental en su visión, particularmente en lo que respecta a la ética en el ámbito regulatorio.
Rouyet explicó que la confiabilidad de la inteligencia artificial (IA) en Europa se basa en tres pilares fundamentales:
- Legalidad, lo cual implica cumplir con las leyes y regulaciones vigentes.
- Ética, asegurando el cumplimiento de principios y valores éticos.
- Robustez, evitando causar daños involuntarios y considerando las implicaciones técnicas y sociales de la IA.
Peñarrubia resaltó la importancia de una definición precisa de la inteligencia artificial (IA) debido a las posibles variaciones en su regulación y responsabilidades.
Según él, es crucial establecer esta definición a nivel jurídico y garantizar que se aplique a cualquier dispositivo, ya que la falta de una definición clara podría generar vacíos legales no solo en la informática tradicional, sino también en la informática algorítmica.