En junio de 2020, YouTube cortó la transmisión en vivo de una entrevista que Antonio Radić le hacía al maestro ajedrecista, Hikaru Nakamura.
YouTube les notificó a los espectadores que la transmisión fue removida por contenido dañino y peligroso. Y Radić recibió un mensaje en el que le informaban que su video había sido eliminado por violar las reglas de la plataforma.
Aunque lo que ocurrió sigue siendo incierto y YouTube se negó a dar más explicaciones, además de decir que eliminar el video fue un error, un estudio reciente revela que esto podría deberse a fallos de los programas de Inteligencia Artificial (IA) diseñados para detectar automáticamente el discurso de odio, el abuso y la desinformación en línea.
Estos programas que analizan el lenguaje tienen dificultad para identificar el contexto y eso explicaría la confusión respecto a la interpretación de palabras como “blanco”, “negro”, “defensa” y “ataque”, propias de la jerga del ajedrez.
Ashique KhudaBukhsh, especialista en IA de la Universidad Carnegie Mellon, se pregunta si el algoritmo de YouTube no podría haber confundido la charla sobre las piezas del ajedrez con una discusión racista.
Por esa razón, junto con el ingeniero Rupak Sarkar, diseñó un experimento en el que comparó mensajes de un sitio de extrema derecha con datos de Twitter. Y enseguida probaron el algoritmo con textos y comentarios de más de ocho mil videos de ajedrez.
El estudio reveló que los algoritmos eran deficientes, ya que marcaron como discurso de odio alrededor del 1 por ciento de las transcripciones, aunque el 80 por ciento fueron falsos positivos. “Sin la supervisión humana, confiar en las predicciones de las discusiones de ajedrez puede ser engañoso”, se lee en el artículo.
El experimento expuso un problema fundamental para los programas de lenguaje de Inteligencia Artificial: detectar el discurso de odio es mucho más que identificar palabras o frases obscenas. Debido a la polisemia, las mismas palabras pueden tener significados muy distintos según el contexto, por lo que el algoritmo debe inferir el significado de una cadena de palabras.
Las gigantes tecnológicas le apuestan a la Inteligencia Artificial para frenar los discursos de odio. A inicios del año, Facebook declaró que los algoritmos de IA detectaron el 97 por ciento del contenido que la compañía eliminó durante el último trimestre de 2020.
Sin embargo, Yejin Choi, especialista en IA y lenguaje de la Universidad de Washington, señala que el avance en la detección del discurso de odio requerirá grandes inversiones y nuevos enfoques.