Una reciente investigación por parte de Bloomberg ha demostrado que GPT, el modelo de lenguaje generativo de OpenAI, produce sistemáticamente sesgos raciales la hora de examinar currículums para encontrar un candidato. Y esto es un problema enorme.
Al parecer, muchas empresas optan por usar la IA de OpenAI, entre otros usos, para el departamento de recursos humanos con tal de optimizar el trabajo de reclutamiento. Incluso, según el citado medio, muchas compañías creen que GPT puede evaluar a un candidato de manera más justa que los humanos, aunque la propia OpenAI prohíbe usar su modelo de inteligencia artificial para este cometido.
La labor de GPT en esta tarea es relativamente sencilla: comprobar qué candidato tiene una mejor experiencia, más estudios o qué aptitudes se adhieren mejor a la empresa que está buscando contratar nuevos talentos. Pero el experimento de Bloomberg ha demostrado que, incluso aunque los candidatos tengan exactamente la misma experiencia, la IA de OpenAI califica como menos aptos para el puesto a las personas con nombres demográficamente distintos a los estadounidenses.