OpenAI acaba de anunciar los miembros de su renovado Comité de Seguridad, y el consejero delegado Sam Altman no figura en la lista.
El grupo estará formado únicamente por miembros independientes del consejo de administración, lo que supone un alivio para los críticos que se preguntaban si el comité podía cumplir realmente su función de vigilancia si su CEO formaba parte de él. Bret Taylor, presidente de OpenAI, también ha abandonado el comité.
El comité se formó por primera vez en mayo, tras una serie de salidas de altos cargos a los que preocupaba públicamente que el fabricante de ChatGPT no pudiera regirse por sí mismo y dejara de actuar con responsabilidad en materia de inteligencia artificial. Cuando se anunció el grupo, Altman, Taylor y cinco expertos técnicos y políticos de OpenAI fueron nombrados miembros del comité, junto con los miembros independientes del consejo.
El comité renovado está presidido ahora por Zico Kolter, profesor de la Universidad Carnegie Mellon, e incluye al cofundador y consejero delegado de Quora, Adam D’Angelo, al general retirado del ejército estadounidense Paul Nakasone, y a Nicole Seligman, antigua consejera general de Sony Corporation, según una entrada del blog de la empresa. Los cuatro también forman parte del consejo de administración de OpenAI.
El comité de seguridad “supervisará el lanzamiento de los modelos y tendrá autoridad para retrasar su lanzamiento hasta que se resuelvan los problemas de seguridad”. El post también dice que el comité revisó la evaluación de seguridad de o1, una serie de modelos de IA “diseñados para pasar más tiempo pensando antes de responder”.
Los problemas de OpenAI
El mes pasado, la empresa se enfrentó a un proyecto de ley sobre seguridad de la IA en California, alegando que frenaría el progreso y expulsaría a las empresas del estado.
Exempleados de OpenAI han declarado que la oposición de la empresa al proyecto de ley es decepcionante, pero está en consonancia con su trayectoria reciente.
“Nos unimos a OpenAI porque queríamos garantizar la seguridad de los sistemas de IA increíblemente potentes que la empresa está desarrollando”, escribieron en la carta William Saunders y Daniel Kokotajlo, antiguos investigadores de OpenAI. “Pero renunciamos a OpenAI porque perdimos la confianza en que desarrollaría de forma segura, honesta y responsable sus sistemas de IA”.
La empresa también se ha visto recientemente en el punto de mira de otras polémicas.
En julio, los denunciantes de OpenAI se pusieron en contacto con la Comisión de Bolsa y Valores de Estados Unidos (la SEC, equivalente a la CNMV) para pedirle que investigara a la empresa por violación de las normas relativas a los acuerdos de confidencialidad. Semanas antes, nueve actuales y antiguos empleados de OpenAI firmaron una carta abierta en la que señalaban los riesgos de la IA generativa.