No se puede negar que la inteligencia artificial llegó para quedarse. Cada día son más sus usos en todos los ámbitos educativos, empresariales y en la vida diaria de todos los individuos.
Pero hay pensadores e investigadores que creen que se pueden llegar a producir abusos en su aplicación, como en el caso de la detección de emociones, y que hay que ponerle un freno a su implementación.
Un destacado grupo de investigadores alarmados por los efectos sociales nocivos de la inteligencia artificial pidió la prohibición del análisis automatizado de las expresiones faciales en la contratación y otras decisiones importantes.
El Instituto AI Now de la Universidad de Nueva York dijo que era su prioridad actuar contra tal "reconocimiento de afecto" impulsado por software porque la ciencia no justifica el uso de la tecnología y todavía hay tiempo para detener la adopción generalizada.
Storytelling, clave para el marketing digital: cómo una historia permite conectar con los clientes
Los investigadores citaron como ejemplo problemático a la compañía HireVue, que vende sistemas para entrevistas de video remotas para empleadores como Hilton y Unilever. Ofrece inteligencia artificial para analizar movimientos faciales, tono de voz y patrones de habla, y no divulga los puntajes a los candidatos.
El Centro para la Privacidad de la Información Electrónica, organización sin fines de lucro, presentó una queja sobre HireVue ante la Comisión Federal de Comercio estadounidense y AI Now ha criticado a la compañía anteriormente.
HireVue dijo que no había visto el informe AI Now y no respondió preguntas sobre las críticas o la queja.
"Muchos candidatos se han beneficiado de la tecnología de HireVue para ayudar a eliminar el sesgo humano, que es tan significativo, en el proceso de contratación existente", dijo la portavoz Kim Paone.
Su estrategia para ganar más negocios la aprendió de los juegos de mesa: la rara historia del creador de LinkedIn
AI Now, en su cuarto reporte anual sobre los efectos de las herramientas de inteligencia artificial, dijo que la evaluación del trabajo es una de las muchas formas en que dicho software se usa sin responsabilidad, y que generalmente favorece a grupos privilegiados.
"La forma en que las personas comunican enojo, disgusto, miedo, felicidad, tristeza y sorpresa varía sustancialmente entre culturas, situaciones e incluso entre personas dentro de una sola situación", escribió un equipo de la Universidad Northeastern y el Hospital General de Massachusetts.
AI Now también criticó a Amazon, que ofrece análisis sobre expresiones de emoción a través de su software Rekognition. Amazon dijo que su tecnología sólo determina la apariencia física de la cara de alguien y no pretende mostrar lo que una persona realmente siente.
En una conferencia telefónica antes de la publicación del informe, los fundadores de AI Now Kate Crawford y Meredith Whittaker dijeron que los usos dañinos de la inteligencia artificial se están multiplicando a pesar del amplio consenso sobre los principios éticos porque no hay consecuencias por violarlos, indicó Infobae.