En Wikipedia siempre ha habido riesgo de que aparezcan artículos falsos. Solo un ejemplo: durante un tiempo, la página que contaba la biografía de un presentador de radio de Irlanda del Norte señalaba que este había sido una promesa del break dance y que su carrera en el baile urbano se truncó debido a una lesión en la columna. Pero todo esto era puro troleo. Otras veces, en cambio, hay detrás fines promocionales o de desinformación. El portal tiene ya una larga tradición afrontando este tipo de problemas. Una comprometida comunidad de 265.000 voluntarios activos los ha controlado hasta ahora. Pero la explosión de los textos generados con inteligencia artificial plantea nuevos desafíos.
Con más de 16.000 millones de visitas al mes, el prestigio de la Wikipedia está fuera de toda duda. Por eso es un lugar codiciado para inyectar desinformación o para blanquear mensajes de marketing, de empresas o individuos. Y con la inteligencia artificial (IA) se pueden generar textos creíbles a discreción, fácilmente y sin esfuerzo.
Tras el lanzamiento de ChatGPT, el portal amplió su equipo dedicado al aprendizaje automático. El cofundador de Wikipedia, Jimmy Wales, ha afirmado que la IA es a la vez “una oportunidad y una amenaza”. Y en su última campaña de captación de fondos, uno de los reclamos destacaba el papel de la plataforma en la “era de la inteligencia artificial”.
Miguel Ángel García, socio de Wikimedia España y exmiembro de la junta directiva, reconoce haberse topado ya con textos sospechosos de haber sido generados con IA. “Hemos notado que aparecen editores nuevos que quieren añadir contenidos. Y añaden un contenido muy extenso y muy desarrollado, que es algo raro. Porque cuando tú eres un voluntario que empiezas, construyes poco a poco los artículos. Vas párrafo a párrafo”.
García conoce bien estos patrones. Empezó a colaborar con Wikipedia en 2006, cuando estaba en el instituto. Corregía alguna falta de ortografía o aplicaba cambios gramaticales evidentes. Su primer artículo lo creó porque hizo un trabajo sobre el pueblo de sus padres, Campaspera, cerca de Valladolid. No había ninguna información de esta localidad en el portal, así que subió su texto con fotos hechas por él mismo.
“Desde que existe la inteligencia artificial aparecen cada vez más voluntarios que te pegan un texto gigante, aparentemente bien estructurado y bien desarrollado. Pero luego lo lees y descubres las redundancias que una persona es capaz de detectar muchas veces en los textos hechos con inteligencia artificial”, se refiere García a coletillas y cierta manera de presentar la información, con introducciones y conclusiones manidas.
Este tipo de textos corren el riesgo de perderse en un océano de más de 62 millones de artículos en más de 300 lenguas. Chris Albon, director de Aprendizaje Automático en la Fundación Wikimedia, que controla Wikipedia, señala que desde el 2002 algunos voluntarios han utilizado herramientas de IA, sobre todo en tareas redundantes. La tecnología no les es ajena. Y la clave para controlar los textos inadecuados está precisamente en la comunidad de voluntarios, que hace la moderación del contenido. No solo escriben textos, también los editan y discriminan cuáles pueden no ser valioso.