Reconocimiento facial respalda el sesgo algorítmico: expertos

En Brasil, 90 por ciento de las personas detenidas a través de sistemas de reconocimiento facial son negras. Esto se debe a datos y software sesgados con un margen de error del 10 por ciento, una cifra inconcebible para muchos desarrolladores. Estos datos fueron presentados en FebrabanTech 2023, por especialistas en derecho digital y en el área de tecnología del proyecto Educafro, orientado a la inclusión y permanencia de personas negras en distintos espacios, especialmente universitarios.

Un ejemplo de este problema, presentado en el taller “Racismo algorítmico: del concepto a la práctica en la sociedad cotidiana”, es el fatídico caso de la investigadora del MIT (Massachusetts Institute of Technology) Joy Buolamwini, quien inició un proyecto llamado Aspire Mirror, una herramienta desarrollada para diseñar máscaras digitales en el reflejo de quienes las usan.

Mediante el uso de un software genérico de reconocimiento facial, la científica, que es negra, descubrió que no se detectó su rostro. Tras descartar los problemas tecnológicos, hizo una prueba colocándose una máscara blanca sobre el rostro y fue reconocida de inmediato. La experiencia se menciona en el documental Coded Bias.

joy buolamwini mascara branca credito divulgacao

“Toda esta tecnología [de biometría y reconocimiento facial] promete seguridad y practicidad. ¿Pero para quién?”, cuestionó Thamires Orefice, consultora legal de Educafro, especializada en derecho digital. “No hay datos que demuestren esta seguridad y apenas tenemos tiempo para aplicar y monitorear la velocidad de este tipo de tecnologías, por lo que es necesaria una mejor regulación y revisión”, agregó.

Por eso, la experta aclaró que la posición de Educafro es realmente la prohibición de este sistema o al menos una revisión actualizada de los datos para aplicarlo.

El problema del sesgo del algoritmo

Como se sabe, la tecnología de reconocimiento facial se basa en software y algoritmos que mapean patrones en los rostros de las personas que utilizan una base de datos. Y, como explicó Áubio Ferreira, ingeniero informático e investigador de Educafro Tech, las máquinas no son productos cognitivos, se alimentan de una base de quienes las entrenan y desarrollan estos algoritmos: en definitiva, un grupo homogéneo, formado por hombres blancos y cisgénero.

“A nivel de TI, lo que hay que hacer es un refinamiento de los datos. El error del 10 por ciento en el reconocimiento facial no es aceptable; 1 por ciento en el área de búsqueda ya es un número enorme. Cuando los supuestos matemáticos son erróneos, se generan situaciones desastrosas, dijo Ferreira.

Para resaltar este problema, los expertos mostraron datos de la organización PretaLab, que indican que en Brasil, 65 por ciento de las mujeres están fuera del área de TI y este número se agrava si son madres; en el 67.4 por ciento de los casos, personas que viven en barrios periféricos y vulnerables constituyen como máximo el 10 por ciento de las personas en los equipos de tecnología de las empresas; el 95.9 por ciento de ellos no incluye a ningún indígena y la falta de personas negras oscila entre 38 y 68 por ciento en esta área.

Empresas diversas generan soluciones más asertivas y rentables

“Al considerar estos aspectos, entendemos que la tecnología es un espacio de poder, y por eso debemos ocuparlo”, indicó Thamires Orefice.

La pareja también afirmó, según un estudio de la consultora McKinsey titulado La diversidad como palanca de desempeño, que una empresa diversa puede obtener beneficios reales. El análisis realizado con más de mil empresas en 12 países arrojó que la diversidad de género en los puestos ejecutivos puede incrementar las ganancias en un 21 por ciento en comparación con aquellas que no trabajan en este tema.

En los casos de mayor diversidad étnica y cultural, este número se eleva al 31 por ciento.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies