Meta crea sistema de IA de rápido aprendizaje para frenar contenido nocivo

Meta creó un nuevo sistema de Inteligencia Artificial (IA) que usa el “aprendizaje de pocas oportunidades” en aras de combatir el creciente contenido perjudicial que prolifera en sus plataformas, como el discurso de odio.

La gigante tecnológica estadounidense informó que el contenido dañino continúa evolucionando rápidamente, y ha sido impulsado por acontecimientos recientes o personas que buscan nuevas formas de evadir sus sistemas, por lo que es crucial que los sistemas de IA evolucionen junto con él.

Sin embargo, aclaró que por lo regular se necesitan varios meses para recopilar y etiquetar miles, incluso millones, de ejemplos necesarios para capacitar a cada sistema de IA individual para detectar un nuevo tipo de contenido.

Para abordar este asunto, Meta creó el nuevo sistema Few Shot Learner (FSL), o una tecnología de Inteligencia Artificial que puede adaptarse para tomar medidas sobre tipos nuevos o en evolución de contenido dañino en cuestión de semanas en lugar de meses.

Este nuevo sistema de IA utiliza un método llamado “aprendizaje de pocas oportunidades”, en el que los modelos comienzan con una comprensión general de muchos temas diferentes y luego usan muchos menos ejemplos etiquetados, e incluso ninguno, para aprender nuevas tareas.

FSL puede emplearse en más de 100 idiomas y aprende de diferentes tipos de datos, como imágenes y texto. Meta detalló que la nueva tecnología le ayudará a aumentar los métodos con los que cuenta para combatir el contenido perjudicial.

La compañía detalló que FSL funciona en tres escenarios distintos, cada uno de los cuales requiere de diferentes niveles de ejemplos etiquetados:

1. Zero-shot: descripciones de políticas sin ejemplos. 

2. Few-shot with demonstration: descripciones de políticas con un pequeño conjunto de ejemplos, menor a 50. 

3. Low-shot with fine-tuning: los desarrolladores de Aprendizaje Automático pueden ajustar el modelo base de FSL con un número reducido de ejemplos de entrenamiento.

Meta informó que probó FSL en algunos hechos recientes, como la identificación de contenido que comparte información engañosa o sensacionalista sobre la vacunación contra la Covid-19. Mientras que, en una tarea separada, el nuevo sistema de IA mejoró un clasificador existente que marca el contenido que se aproxima a incitar a la violencia.

Por otro lado, Meta detectó que FSL también ayudó a reducir la prevalencia de otro contenido nocivo como lo es el discurso de odio. Y finalmente advirtió que espera que, con el tiempo, este sistema de IA mejore el rendimiento de todos sus sistemas de Inteligencia Artificial de integridad al permitirles aprovechar una base de conocimiento y una columna vertebral única para hacer frente a muchos tipos diferentes de violaciones.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies