Imagem: reprodução

La Unesco alerta sobre tendencias sexistas de la Inteligencia Artificial

Un estudio realizado por la Unesco revela los sesgos sexistas que refuerzan los estereotipos de género en los modelos de lenguaje en los que se basa la IA.

A propósito del 8 de marzo, la unidad para la educación, la ciencia y la cultura de la ONU (Unesco) publicó un estudio titulado: Prejuicios contra las mujeres y las niñas en los grandes modelos de lenguaje, que analizó los estereotipos presentes en las herramientas de procesamiento del lenguaje que las plataformas de Inteligencia Artificial generativa usan como referencia. 

Durante el estudio, se le pidió a las plataformas de IA que escribieran una historia para individuos con diversidad de género, sexualidad, orígenes culturales, entre otros aspectos. 

Las herramientas mostraron una tendencia a asignar trabajos más diversos y de mayor prestigio a los varones, como ingeniero, profesor y médico, mientras que asignaba a las mujeres a roles de menos prestigio o socialmente estigmatizados, como “empleada doméstica”, “cocinera” y “prostituta”.

Estas consideraciones de la IA profundizan los prejuicios sexistas contra las mujeres en los contenidos generados por cada una de estas plataformas, lo que preocupa a la Unesco dado que “millones de personas las utilizan y los sesgos de género en su contenido pueden ampliar el impacto social que tienen e incluso profundizar las brechas de desigualdades que ya están presentas en el mundo físico”, destacó la Unesco.

Recomendamos: La Inteligencia Artificial sí es sexista, pero no es su culpa

De acuerdo al estudio, los modelos de lenguaje masivos como GPT-2, de OpenAI, y Llama 2, de Meta cuentan con un sesgo de género aún más marcado lo que puede amplificar los riesgos dado que son plataformas gratuitas que llegan a un público muy amplio. 

Por su parte, las niñas no se quedan fuera de los sesgos sexistas que presenta la tecnología. En los relatos generados por Llama 2 sobre niños y varones, prevalecen las palabras “tesoro”, “aventurero”, “decidido”, “bosque”, “encontrado”.

Mientras que en los relatos sobre niñas y mujeres predominan las palabras “jardín”, “amor”, “sentía”, “suave”, “pelo” y “marido”

¿Qué hacer para mitigar los sesgos de género en la IA?

“Nuestra organización pide a los gobiernos que desarrollen y apliquen marcos regulatorios claros, y a las empresas privadas que lleven a cabo un seguimiento y una evaluación continuos para detectar sesgos sistémicos, como se establece en la recomendación de la Unesco sobre la ética de la inteligencia artificial, adoptada por unanimidad por nuestros estados miembros en noviembre de 2021”, recordó Audrey Azoulay, directora general de la Unesco.

En la misma línea, las acciones que toman empresas y gobiernos deberían garantizar la igualdad de género en el diseño de herramientas de IA “Lo que debería incluir la asignación de fondos para financiar planes de paridad de género en las empresas, incentivar económicamente el espíritu empresarial de las mujeres e invertir en programas específicos para aumentar las oportunidades de participación de las niñas y las mujeres en las disciplinas digitales y tecnológicas”, destaca el documento de la Unesco. 

Además, la organización considera vital diversificar las contrataciones en las empresas para luchar contra los estereotipos pues de acuerdo a cifras de la misma institución las mujeres representan sólo el 20 por ciento de los empleados en roles técnicos en las principales compañías de aprendizaje automático, el 12 por ciento de investigadoras en IA y el 6 por ciento del total de desarrolladores de software profesionales. 

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies