Anthropic supera en seguridad a OpenAI y otras compañías de Inteligencia Artificial
El Índice de Seguridad en la IA, hecho por el Future of Life Institute, reveló las prácticas de seguridad y privacidad de las compañías de IA.
La firma de Inteligencia Artificial (IA) Anthropic se posicionó como la número uno del Índice de Seguridad en la IA hecho por el Future of Life Institute, respecto a empresas como OpenAI, Google DeepMind, xAI, Meta, Zhipu.AI y DeepSeek.
Este Índice consiste en una evaluación independiente sobre los esfuerzos de siete empresas líderes en Inteligencia Artificial por gestionar tanto los daños inmediatos como los riesgos catastróficos asociados a sistemas avanzados de IA.
“Esta segunda evaluación, realizada con un panel de revisión de expertos compuesto por destacados investigadores y especialistas en gobernanza de la IA, revela una industria que lucha por mantenerse al ritmo de sus propios avances tecnológicos, con brechas críticas en la gestión de riesgos y planificación de seguridad que amenazan nuestra capacidad para controlar sistemas de IA cada vez más poderosos”, advierte el reporte.
El documento reveló que Anthropic obtuvo la mejor calificación general C+, pues lideró en evaluaciones de riesgos, realizando los únicos ensayos de bio-riesgos con participación humana.
El reporte también señaló a Anthropic como una empresa destacada en privacidad al no entrenar sus modelos con datos de usuarios.
“También realizó investigaciones de vanguardia en alineación, obtuvo un sólido desempeño en pruebas de seguridad y demostró compromiso con la gobernanza a través de su estructura como Public Benefit Corporation y su comunicación proactiva sobre riesgos”, detalla el estudio.
En tanto, OpenAI quedó en segundo lugar, por delante de Google DeepMind. El Índice explica que se destacó como la única empresa que publicó su política de denuncias, presentó un enfoque más sólido de gestión de riesgos en su marco de seguridad y evaluó riesgos en modelos antes de aplicar mitigaciones.
OpenAI también compartió más detalles sobre evaluaciones externas de sus modelos, publicó especificaciones detalladas de modelos, divulgó regularmente casos de uso malicioso y participó de forma integral en la encuesta del Índice de Seguridad en la IA, por lo que se colocó en el segundo sitio del Índice.
“La industria no está preparada para cumplir sus propias metas. Las empresas afirman que alcanzarán la Inteligencia Artificial General en esta década, pero ninguna obtuvo una calificación superior a D en planificación de seguridad existencial.
“Un evaluador calificó esta desconexión como ‘profundamente preocupante’, señalando que, pese a correr hacia una IA a nivel humano, ninguna de las empresas tiene algo parecido a un plan coherente y ejecutable para garantizar que estos sistemas sean seguros y controlables”, agrega el reporte.
Asimismo, añade que sólo tres de las siete empresas informaron pruebas sustanciales para capacidades peligrosas relacionadas con riesgos a gran escala, como el bioterrorismo o ciberterrorismo: Anthropic, OpenAI y Google DeepMind.
Y aunque estas empresas mejoraron ligeramente la calidad de sus modelos, un evaluador advirtió que las pruebas subyacentes aún no cumplen con estándares básicos de evaluación de riesgos.
Por otro lado, las firmas chinas Zhipu.AI y DeepSeek recibieron calificaciones reprobatorias en general. No obstante, el informe califica a las empresas según normas como la autogobernanza y el intercambio de información, ambas cosas mucho menos frecuentes en la cultura corporativa china.
“Como China ya tiene regulaciones para el desarrollo de IA avanzada, hay menos dependencia de la autogobernanza en seguridad de IA, a diferencia de Estados Unidos y Reino Unido, donde están basadas las otras empresas y donde aún no se ha aprobado ninguna regulación para IA de frontera”, se explica en el informe.