Los algoritmos son capaces de procesar comunicaciones corporativas para detectar comportamientos indeseados en el marco laboral. cómo funcionan
07.01.2020 • 20:00hs • Seguridad en el empleo
Seguridad en el empleo
Bots para evitar el acoso laboral o sexual: cómo detectan estas conductas en mensajes de email o chats
NexLP es una de las firmas de análisis cognitiva que trabaja en el desarrollo de los conocidos como #MeTooBots, en referencia al movimiento 'Me Too'. Se trata de algoritmos diseñados para procesar y analizar comunicaciones corporativas —principalmente, correo electrónico y chats— con el fin de detectar acoso sexual o laboral, mobbing o lenguaje agresivo o amenazador en el entorno laboral.
Estos robots o bots (robots virtuales, programas informáticos con cierta capacidad para aprender y 'decidir') están entrenados para identificar indicios de acoso a partir de textos que sirven como "muestra" sobre qué palabras y tonos tienen cierta probabilidad de corresponderse con mensajes dañinos que, en última instancia, pueden suponer un problema potencial tanto para empleados como para la compañía.
En base a esa probabilidad este tipo de bots 'deciden' si un texto es aceptable o si no lo es, y en este último caso el algoritmo puede bloquearlo o notificarlo a los departamentos jurídicos o de recursos humanos, por ejemplo, explican en The Guardian.
Instagram ha comenzado a implementar este tipo de desarrollos de inteligencia artificial para detectar comentarios dañinos y con el fin de combatir el bullying y el ciberacoso en la red social.
Precisamente Facebook, propietaria de Instagram, reconoce la dificultad de determinar cuándo un comentario tiene como finalidad hacer daño, en parte debido a que los jóvenes "enmascaran" ciertas palabras o expresiones con símbolos o caracteres que modifican la ortografía "para engañar a los sistemas automáticos", consigna economíadigital.es.
Aunque este tipo de técnica de reemplazo de caracteres es difícilmente aplicable a comunicaciones profesionales, la detección del lenguaje inapropiado —o que se pueda considerar inapropiado— no es trivial debido a los matices o variaciones del lenguaje, a la dificultad para determinar el contexto e incluso a cuestiones culturales, entre otras varables.
Por tanto y para que un sistema aprendizaje automático sea fiable es necesario que los algoritmos "lean" y analicen todas las comunicaciones que se producen dentro de la empresa y que aprendan a distinguir, incluso con ayuda de supervisores humanos, entre lo que una compañía considera aceptable en sus comunicaciones entre empleados y lo que no.
Que un sistema automático lea todos los mails y conversaciones de chats o entre empleados suscita recelo en torno al siempre peliagudo asunto de la privacidad, especialmente en la fase de entrenamiento de los bots: en esa primera fase es necesaria la supervisión humana del sistema; es decir, que otros empleados lean fragmentos seleccionados por la inteligencia artificial e indiquen al sistema si se trata de un falso positivo o de un falso negativo.
Al tratarse de supervisar comunicaciones corporativas que se desarrollan en el ámbito laboral el símil habitual es el de utilizar cámaras de videovigilancia y de otros sistemas de monitorización o de supervisión, incluyendo los registros de entrada y de salida o grabaciones de conversaciones telefónicas con clientes.
Sin embargo en muchos casos el acoso no se manifiesta por escrito, lo que dificulta su detección mediante el análisis de comunicaciones y conversaciones escritas. Se calcula que en España en entorno a un 15% de los trabajadores sufren algún tipo de maltrato o acoso laboral o mobbing, un delito introducido en 2010 en el Código Penal.