OpenAI crea comité de seguridad y protección a medida que entrena su próximo modelo
OpenAI dijo que ha comenzado recientemente a entrenar su próximo modelo de Inteligencia Artificial.
La Junta Directiva de OpenAI informó que creó un comité de seguridad y protección, el cual tiene la responsabilidad de hacer recomendaciones sobre decisiones críticas de seguridad y protección para todos los proyectos de la compañía.
El comité de seguridad será dirigido por Bret Taylor, Adam D’Angelo, Nicole Seligman y Sam Altman. Este comité será responsable de hacer recomendaciones a toda la Junta sobre decisiones críticas de seguridad para proyectos y operaciones de OpenAI.
La compañía creadora de ChatGPT informó que ha comenzado recientemente a entrenar su próximo modelo, por lo que anticipan que los sistemas resultantes los llevarán al siguiente nivel de capacidades camino hacia la Inteligencia Artificial General (AGI).
“Si bien estamos orgullosos de construir y lanzar modelos que son líderes en la industria tanto en capacidades como en seguridad, damos la bienvenida a un debate sólido en este momento importante”, dijo la compañía en un comunicado.
Te puede interesar: Inteligencia Artificial: ¿aliado o verdugo para las redes de telecomunicaciones?
Una primera tarea del comité de seguridad será evaluar y desarrollar aún más los procesos y salvaguardas de OpenAI durante los próximos 90 días. Al finalizar los 90 días, el comité de seguridad compartirá sus recomendaciones con la Junta.
Luego de la revisión completa de la Junta, OpenAI compartirá públicamente una actualización sobre las recomendaciones adoptadas de una manera que sea consistente con la seguridad.
Los expertos técnicos y políticos de OpenAI, Aleksander Madry (Jefe de Preparación), Lilian Weng (Jefe de Sistemas de Seguridad), John Schulman (Jefe de Ciencia de Alineación), Matt Knight (Jefe de Seguridad) y Jakub Pachocki (Científico Jefe) también estarán presentes en el Comité.
Además, OpenAI contratará y consultará con otros expertos técnicos y de seguridad para respaldar este trabajo, incluidos los exfuncionarios de ciberseguridad, Rob Joyce, quien asesora a OpenAI en seguridad, y John Carlin.