OpenAI se alía con el Gobierno de los Estados Unidos

Softsonic-Chema Carvajal

OpenAI proporcionará al Instituto de Seguridad de la IA de EE.UU. acceso anticipado a su próximo modelo como parte de sus esfuerzos en materia de seguridad, según acaba de revelar Sam Altman en Twitter.

Al parecer, la empresa ha estado trabajando con el consorcio “para impulsar la ciencia de las evaluaciones de IA”. El Instituto Nacional de Estándares y Tecnología (NIST) ha establecido formalmente el Instituto de Seguridad de la Inteligencia Artificial a principios de este año, aunque fuese anunciado en 2023.

Según la descripción que hace el NIST del consorcio, su objetivo es “desarrollar directrices y normas con base científica y respaldo empírico para la medición y la política de la IA, sentando las bases de la seguridad de la IA en todo el mundo”.

Buenas noticias, pese a que OpenAI esté bajo la lupa de todos los organismos de control

OpenAI, junto con DeepMind, también se comprometió el año pasado a compartir modelos de IA con el gobierno británico. Como señala TechCrunch, ha crecido la preocupación de que OpenAI esté restando prioridad a la seguridad mientras intenta desarrollar modelos de IA más potentes.

Y se especuló con la posibilidad de que el consejo de administración decidiera echar de la empresa a Sam Altman -que se reincorporó muy pronto- por motivos de seguridad. Sin embargo, la empresa dijo a los miembros del personal en un memorándum interno por aquel entonces que se debía a “un fallo en la comunicación”.

Leer más.