Se analizaron 189 algoritmos de 99 desarrolladores (Microsoft, Intel y SenseTime, entre otros muchos) y las conclusiones son que siguen habiendo margen de mejora en lo que a sesgo racial se refiere.
Como explica Patrick Grother, autor principal del estudio, "si bien es generalmente incorrecto hacer declaraciones a través de algoritmos, encontramos evidencia empírica de la existencia de diferenciales demográficos en la mayoría de los algoritmos de reconocimiento facial que estudiamos". Un diferencial, para ponerlo en contexto, se produce cuando la capacidad de un algoritmo para vincular dos imágenes de una misma persona varía de un grupo demográfico a otro.
Se reían de él, lo trataban de tonto: la historia del creador de Softbank, uno de los hombres más ricos del mundo
Muchos más falsos positivos en personas afroamericanas y asiáticas
El estudio contempla el desempeño de los algoritmos de reconocimiento facial en dos tareas. La primera, una prueba "one-to-one", que consiste en confirmar que una foto coincide con otra foto diferente de una misma persona en la misma base de datos. Esto, por ejemplo, se usa para verificar un pasaporte o para desbloquear un smartphone con reconocimiento facial en 2D. La segunda prueba, "one-to many", consiste en determinar si la persona en una foto tiene alguna coincidencia en una base de datos, útil para, por ejemplo, identificar a una persona en busca y captura.
Lado B del dólar tarjeta: profesionales y empresas pagarán un 30% más por servicios clave para su negocio
Los investigadores explican que para evaluar el rendimiento de los algoritmos se midieron dos parámetros: falsos negativos y falsos positivos. Un falso negativo se produce cuando el software no hace coincidir dos fotos que muestran a la misma persona. Un falso positivo, por su parte, se produce cuando el software considera que dos fotos en las que aparecen diferentes personas muestran a una misma persona.
La prueba se llevó a cabo con cuatro bases de datos de fotografías con 18,27 millones de imágenes de 8,49 millones de personas, todas ellas provenientes del Departamento de Estado, el Departamento de Seguridad Nacional y el FBI. Aclaran que "el equipo no usó ninguna imagen obtenida directamente de fuentes de Internet como las redes sociales o videovigilancia". Cada imagen estaba etiquetada con la edad, el sexo y la raza o país de nacimiento de la persona fotografiada.
Tenés que saberlo: ¿quién responde en caso de accidente entre un auto y una bicicleta pública o un monopatín?
¿Cuáles fueron los resultados? El principal es que el emparejamiento "one-to-one" tiene tasas más altas de falsos positivos para rostros asiáticos y afroamericanos en comparación con los rostros caucásicos. ¿Cuánto exactamente? Un factor de diez a cien veces, dependiendo del algoritmo. Señalan los investigadores que "los falsos positivos pueden presentar un problema de seguridad para el propietario del sistema, ya que pueden permitir el acceso a impostores".
En cuanto a los algoritmos desarrollados en Estados Unidos, estos presentaron tasas similares de falsos positivos en individuos asiáticos, afroamericanos y nativos como indios americanos o indios de Alaska. Contrasta con los algoritmos desarrollados en países asiáticos, que no presentaron "una diferencia tan dramática en los falsos positivos en el emparejamiento "one-to-one" de caras asiáticas y caucásicas". Si bien el estudio no abordar la relación causa-efecto de este hecho, creen que el motivo puede ser que estos hayan sido entrenados con datos más diversos.
Los algoritmos desarrollados en Asia tienen menos tasa de error al identificar a personas caucásicas y asiáticas
En lo referente al emparejamiento "one-to-many", las mujeres afroamericanas fueron las que presentaron tasas más altas de falsos positivos. Argumentan los investigadores que los diferenciales en falsos positivos "son particularmente importantes porque las consecuencias podrían incluir acusaciones falsas". Destacan también que en esta prueba se usó una base de datos de FBI con 1,6 millones de fotos.
El estudio llega a la conclusión de que diferentes algoritmos funcionan de manera diferente, a pesar de que hacen prácticamente lo mismo, y que los algoritmos más equitativos se encuentran entre los más precisos. Y es que los algoritmos, si se entrenan con imágenes sesgadas por raza o sexo, fallarán al intentar reconocer a las personas. Es un debate abierto y que no es la primera vez que sale a colación, indicó Xataka.