California debilita proyecto de ley para prevenir desastres de IA antes de la votación final, siguiendo el consejo de Anthropic

El Oficinista-Manuel Alejandro de la Torre

El proyecto de ley de California para prevenir desastres provocados por la inteligencia synthetic, SB 1047, ha enfrentado una oposición significativa de muchos partidos en Silicon Valley. Hoy, los legisladores de California cedieron levemente ante esa presión, agregando varias enmiendas sugeridas por la empresa de inteligencia synthetic Anthropic y otros opositores.

El jueves, el proyecto de ley pasó por el Comité de Asignaciones de California, un paso importante para convertirse en ley, con varios cambios clave, dijo la oficina del senador Wiener a TechCrunch.

“Aceptamos una serie de enmiendas muy razonables propuestas y creo que hemos abordado las principales preocupaciones expresadas por Anthropic y muchos otros en la industria”, dijo el senador Wiener en una declaración a TechCrunch. “Estas enmiendas se basan en cambios significativos a la SB 1047 que hice anteriormente para dar cabida a las necesidades únicas de la comunidad de código abierto, que es una fuente importante de innovación”.

El proyecto de ley SB 1047 sigue teniendo como objetivo evitar que los grandes sistemas de inteligencia synthetic maten a muchas personas o provoquen incidentes de ciberseguridad que cuesten más de 500 millones de dólares, al responsabilizar a los desarrolladores. Sin embargo, el proyecto de ley ahora otorga al gobierno de California menos poder para exigir cuentas a los laboratorios de inteligencia synthetic.

¿Qué hace ahora la SB 1047?

En specific, el proyecto de ley ya no permite al fiscal common de California demandar a las empresas de inteligencia synthetic por prácticas de seguridad negligentes antes de que se produzca un evento catastrófico, según una sugerencia de Anthropic.

En cambio, el fiscal common de California puede buscar una medida cautelar, solicitando a una empresa que cese una determinada operación que considere peligrosa, y aún puede demandar a un desarrollador de IA si su modelo causa un evento catastrófico.

Además, la SB 1047 ya no crea la División de Modelos Fronterizos (FMD), una nueva agencia gubernamental que anteriormente estaba incluida en el proyecto de ley. Sin embargo, el proyecto de ley aún crea la Junta de Modelos Fronterizos (el núcleo de la FMD) y la ubica dentro de la Agencia de Operaciones Gubernamentales existente. De hecho, la junta ahora es más grande, con nueve personas en lugar de cinco. La Junta de Modelos Fronterizos aún establecerá umbrales de cómputo para los modelos cubiertos, emitirá guías de seguridad y emitirá regulaciones para los auditores.

El senador Wiener también modificó la SB 1047 para que los laboratorios de IA ya no tengan que presentar certificaciones de los resultados de las pruebas de seguridad “bajo pena de perjurio”. Ahora, estos laboratorios de IA simplemente están obligados a presentar “declaraciones” públicas que describan sus prácticas de seguridad, pero el proyecto de ley ya no impone ninguna responsabilidad penal.

Leer más.