Conforme surgen más aplicaciones de Inteligencia Artificial (IA) en múltiples tareas, desde evaluaciones de crédito bancario hasta en procesos de reclutamiento, múltiples gobiernos y organizaciones comienzan a explorar el uso de nuevas herramientas de regulación que permitan evaluar y mitigar los riesgos, sin frenar el crecimiento de la nueva tecnología.
A lo largo del año se presentaron diversas iniciativas, tanto de regulación en el uso de algoritmos y soluciones basadas en Inteligencia Artificial, así como guías de desarrollo enfocadas en la evaluación de riesgos para mejorar los beneficios de su aplicación.
A mediados del año, la Unión Europea presentó un nuevo marco legal para el desarrollo de la IA con un enfoque basado en la evaluación de nivel de riesgo, pero con limitaciones muy claras, como evitar su uso para la vigilancia masiva o en aplicaciones de crédito social.
Asimismo, durante la reunión del Consejo en Comercio y Tecnología (TTC) celebrada en octubre, Estados Unidos y Europa acordaron impulsar el desarrollo de sistemas basados en IA, pero “que respeten los derechos humanos universales y los valores democráticos compartidos”.
En el Congreso de Estados Unidos se prepara la reintroducción de la llamada Ley de Responsabilidad Algorítmica, originalmente presentada en 2019 como una propuesta bipartidista, pero que no progresó más allá del nivel de comité.
La nueva versión del proyecto de ley requeriría que las empresas que utilizan sistemas automatizados de toma de decisiones en áreas como la atención médica, la vivienda, el empleo o la educación realicen evaluaciones de impacto e informen regularmente los resultados a la Comisión Federal de Comercio (FTC), según informa Wired con base en un borrador de la propuesta.
Un portavoz del senador Ron Wyden (D-Oregon), uno de los copatrocinadores del proyecto, señala que se solicitará a la FTC la creación de un depósito público de sistemas automatizados de toma de decisiones, con el objetivo de establecer un proceso de evaluación para permitir una futura regulación por parte del Congreso o agencias como la FTC. El borrador solicita a la FTC que decida qué debe incluirse en las evaluaciones de impacto y los informes resumidos.
“Los algoritmos no deberían tener una exención de nuestras leyes contra la discriminación. Nuestro proyecto de ley reconoce que los algoritmos tienen autores y, sin una supervisión diligente, pueden reflejar los prejuicios de quienes están detrás del teclado”, señaló la representante Yvette Clarke durante la presentación original en 2019.
Múltiples organizaciones han sonado la alarma respecto a los posibles riesgos del uso de IA, que no se refieren únicamente a la privacidad o seguridad de los usuarios, sino también el efecto que podrían tener sobre la profundización de temas como la desigualdad y el racismo.
Estudios realizados a sistemas de reconocimiento facial o en soluciones para el reclutamiento de personal han encontrado que estas soluciones exhiben una tendencia a la discriminación racial. Expertos apuntan a que uno de los principales factores es la falta propia de la diversidad en el desarrollo de estos sistemas, así como los datos sin filtro o sin supervisión con los que son alimentados.
Por su parte, la OCDE presentó su marco general para la clasificación de aplicaciones de IA, que pretende ayudar a los formuladores de políticas en el análisis de la regulación y normas que deberán cumplir los participantes de la industria.
El enfoque propuesto por el organismo se basa en cuatro dimensiones de los sistemas de IA que reflejan sus prioridades centrales. El primero es el contexto del sistema, que incluye el sector en el que opera, la escala de su despliegue, el tipo de usuarios que interactúan con él y el grado de elección que tienen al utilizar este sistema. La segunda dimensión son los datos y la entrada de información que fluyen del contexto al sistema de IA. En tercer lugar, el modelo de IA en sí, incluidas características como el tipo y el método de entrenamiento. Y, finalmente, la última dimensión analiza la tarea que está realizando el sistema de IA y su salida, incluido su nivel y grado de autonomía.
Un próximo informe de la Algorithmic Justice League (AJL), una organización privada sin fines de lucro, recomienda exigir la divulgación cuando se usa un modelo de IA y crear un repositorio público de incidentes en los que la IA causó daños. El repositorio podría ayudar a los auditores a detectar posibles problemas con los algoritmos y ayudar a los reguladores a investigar o multar a los infractores reincidentes. El informe dice que es crucial que los auditores sean independientes y que los resultados puedan ser revisados públicamente.
El mes pasado, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) también presentó su propia guía de ética para el desarrollo de IA, en el que se delinean recomendaciones para los países firmantes, aunque no representa un acuerdo vinculante.
El texto publicado recomienda a las empresas y desarrolladores la adopción de procesos de evaluación de impacto ético, mientras que a los gobiernos invita a implementar “fuertes mecanismos de aplicación y acciones correctivas” para proteger los derechos humanos. También insta a los gobiernos a dedicar fondos públicos para promover la diversidad en la tecnología, proteger a las comunidades indígenas y monitorear la huella de carbono de las tecnologías de IA.
Entre otras iniciativas, el Concejo de la Ciudad de Nueva York emitió una nueva ley que requerirá la realización de auditorías para los algoritmos que utilizan las compañías en la toma de decisiones de contrataciones o promociones laborales, así como nuevas medidas de transparencia que permitan a los aplicaciones o empleados conocer cuándo se utilizan estas herramientas.