Un grupo de más de mil académicos e investigadores en Inteligencia Artificial (IA) se pronunciaron en contra de la investigación que afirma usar redes neuronales para “predecir criminalidad”.
En la publicación ―próxima a realizarse dentro de los libros Springer―, los autores afirman que su software de reconocimiento facial automatizado puede predecir si una persona se convertirá en un criminal; una aventurada tecnología en medio del caos surgido por la discriminación racial más grande de Estados Unidos en los últimos años.
“Al automatizar la identificación de posibles amenazas sin prejuicios, nuestro objetivo es producir herramientas para la prevención del delito, la aplicación de la ley y las aplicaciones militares que se vean menos afectadas por los prejuicios implícitos y las respuestas emocionales”, dijo el profesor y coautor de la Universidad de Harrisburg, Nathaniel JS Ashby.
En la carta abierta que se opone a la publicación, los investigadores expresaron “graves preocupaciones” sobre el estudio al comité de revisión de Springer; asimismo, la carta pide a los editores que se negaran a publicar una investigación futura similar, dado que la tecnología de reconocimiento facial y similares deben abordarse con extrema precaución para evitar violentar a las comunidades vulnerables.
La tecnología de reconocimiento facial frecuentemente se ve envuelta en problemas de sesgos raciales y étnicos, lo que provoca preocupaciones científicas y éticas. Puesto que la investigación desarrolló un software de reconocimiento facial que se puede aplicar con fines de vigilancia predictiva, los riesgos de la tecnología aumentan.
“Los programas de Aprendizaje Automático no son neutrales; Las agendas de investigación y los conjuntos de datos con los que trabajan a menudo heredan creencias culturales dominantes sobre el mundo”, advierten los autores de la carta.