OpenAI lanzará Sora al público a finales de 2024

Mira Muratti, CTO de Open IA, explicó que el equipo de Open IA continúa entrenando a Sora para detectar vulnerabilidades y sesgos que podrían ser nocivos.

Sora, la herramienta de Inteligencia Artificial (IA) generativa de Open AI, que crea escenas de vídeo realistas de hasta 60 segundos con base en instrucciones de texto, se lanzará al público a finales de este año. Así lo reveló Mira Muratti, CTO de Open IA en entrevista para The Wall Street Journal.

La razón es que “el equipo de desarrollo aún está trabajando para detectar vulnerabilidades, sesgos y otros resultados nocivos” que pueden desencadenarse con este tipo de herramientas. 

Aunque no dio muchos detalles de la forma de entrenamiento de Sora, es de conocimiento público que se utilizan datos que habitan en la red y que, en ocasiones puede tratarse de información falsa. 

Al respecto Muratti aseguró: “Estamos comprometidos en defender la integridad y mitigar la difusión de información errónea y contenido sesgado, especialmente en el contexto de las elecciones globales. Somos cautelosos a la hora de publicar cualquier material si no estamos seguros que no tendrá efectos adversos”.

Te puede interesar: Predicciones DPL 2024 | La Inteligencia Artificial modificará las experiencias de compras

“A medida que continuamos explorando las capacidades de las herramientas de IA, es crucial comprender sus limitaciones y sortearlas. Colaborar con artistas y creadores de diversas disciplinas en las primeras etapas nos permite unir nuestro enfoque, garantizando viabilidad y adaptabilidad”, explicó Muratti.

Open IA presentó Sora hace un mes, cuando comentó que se trataba de un modelo que permitirá la creación de escenas “altamente detalladas” con movimientos de cámara “complejos” y la integración de múltiples personajes.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies