La Inteligencia Artificial sí es sexista, pero no es su culpa

A pesar de las luchas por la igualdad que se libran alrededor del mundo, los entornos digitales se han convertido en un nuevo escenario para transgredir los derechos de otras personas y la Inteligencia Artificial (IA) no es la excepción.

La IA no elige qué tipo de información usar, al menos no de forma directa. La maquina, a diferencia del ser humano, no tiene sexo, identidad de género ni pre-conceptos sociales que filtren sus decisiones, todos estos rasgo los construye con base en la información que habita en línea y que aprendió durante sus primeras fases de entrenamiento.

De acuerdo con datos de ONU Mujeres, sólo 48 por ciento de las mujeres alrededor del mundo están conectadas a Internet, versus 58 por ciento de los hombres, 10 por ciento más, lo que determina no sólo la posibilidad de participar en el entrenamiento de la máquina sino también las conductas de navegación que se tienen en Internet.

Así, la máquina toma los datos existentes, que tienen sesgos; replica la información sesgada, fortalece los datos de navegación y aprende nueva información que también está sesgada, generando así un gran círculo vicioso, que no fue producida por esta tecnología pero que sí está siendo divulgada.

Para frenar esta bola de nieve, la sociedad civil tiene una responsabilidad vital para llevar a cabo auditorías, análisis y evaluaciones constantes y rigurosas sobre la forma en la que los algoritmos, así como la sociedad misma, concibe la femineidad, los estándares femeninos y el tipo de contenido de mujeres que habitan en la web.

La tecnología no es más que un reflejo de la sociedad y, en este sentido, se necesitan ampliar debates sobre los propósitos del desarrollo de la tecnología, de la regulación y autorregulación de las empresas para llegar a acuerdos que amplíen las perspectivas para que la evolución no genere un retroceso en la igualdad.

  • En 2023, Replika empezó a solicitar contenido sexual a usuarias de la app. Al negarse, la app respondía de forma hostil y sexista a cada comentario.
  • En 2022, una IA de selección de personal eligió más hombres que mujeres para los mismos cargos, basándose únicamente en el género del candidato. 
  • En 2016, Tay, el chat de Twitter, respondió a usuarios con insultos sexistas, antisemitas y racistas el mismo día de su lanzamiento.
  • En 2007, Siri, el asistente de voz de Apple, se lanzó al mercado como el primer asistente virtual. En ese momento sólo tenía una opción de voz femenina. Las siguientes asistentes de voz también son femeninas.

Texto publicado en nuestra revista Digital Trends:

digital trends3 300x600 1

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies