OpenAI desarrolla herramientas para detectar audios e imágenes generados con IA

OpenAI se unió a un estándar global para verificar la autenticidad de los contenidos audiovisuales y anunció el desarrollo de nuevas tecnologías para identificar el contenido creado por sus propias herramientas, como DALL•E, ChatGPT y Sora.

OpenAI se unió al Comite Directivo de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), un estándar ampliamente utilizado para certificación de contenido digital, desarrollado y adoptado por una amplia gama de actores, incluidas empresas de software, fabricantes de cámaras y plataformas en línea.

La empresa informó que, desde inicios de año, empezó a agregar metadatos C2PA a todas las imágenes creadas y editadas por DALL•E 3, su último modelo de imagen, ChatGPT y la API de OpenAI. Y adelantó que próximamente los integrará en Sora, su modelo de generación de video, cuando este se lance al público de forma más amplia.

image 20

Adicionalmente, anunció el lanzamiento de un fondo de 2 millones de dólares junto con Microsoft para apoyar la educación y comprensión de la IA.

Dos formas de abordar el contenido creado con IA

La compañía creadora de ChatGPT explicó que, a medida que el contenido generado con Inteligencia Artificial (IA) se vuelve más común, será cada vez más importante adoptar nuevas tecnologías y estándares que ayuden a las personas a comprender las herramientas utilizadas para crear el contenido disponible en línea.

OpenAI detalló que aborda este desafío de dos maneras: uniéndose a otros para adoptar, desarrollar y promover un estándar abierto que pueda ayudar a las personas a verificar las herramientas utilizadas para crear contenido digital y creando nuevas tecnologías que ayuden especialmente a las personas a identificar contenido creado por sus propias herramientas.

Respecto a este último punto, informó que está desarrollando nuevos métodos de procedencia para mejorar la integridad del contenido digital, como la implementación de marcas de agua a prueba de manipulaciones —marcar contenido digital como audio en Voice Engine, su modelo de voz personalizado, con una señal invisible que sea difícil de eliminar— y clasificadores de detección —herramientas que utilicen IA para evaluar la probabilidad de que el contenido se origine a partir de modelos generativos—.

A partir del 7 de mayo, abrió las solicitudes para acceder al clasificador de detección de imágenes de OpenAI, que predice la probabilidad de que una imagen haya sido generada por DALL•E 3, a su primer grupo de evaluadores, incluidos laboratorios de investigación y organizaciones periodísticas sin fines de lucro, para recibir comentarios a través de su Programa de acceso a investigadores.

Finalmente, OpenAI aclaró que sus esfuerzos respecto a la procedencia son sólo una parte de un esfuerzo más amplio de la industria, ya que, aseguró, ‘habilitar efectivamente la autenticidad de contenido en la práctica requerirá una acción colectiva’, que incluya la facilitación de la retención de metadatos por parte de las plataformas, los creadores de contenido y los manejadores intermedios para que el consumidor final tenga transparencia sobre la fuente del contenido.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies