Proyecto de ley de seguridad de IA en California no tiene contentas a empresas tecnológicas
Las compañías tecnológicas rechazan una propuesta de ley que busca fomentar la ‘innovación segura’ de los modelos de Inteligencia Artificial, por considerar que ahuyenta a las startups e impide que las gigantes operen LLMs de código abierto.
Los pesos pesados de la Inteligencia Artificial en Silicon Valley, la meca tecnológica, se han manifestado en contra de un proyecto de ley estatal que obligaría a las empresas tecnológicas a adherirse a un estricto marco de seguridad que incluye la creación de un ‘interruptor de apagado’ en sus potentes modelos de IA, en una creciente batalla por el control regulatorio de la tecnología de vanguardia.
La legislatura de California está considerando propuestas que introducirían nuevas restricciones a las empresas tecnológicas que operan en el estado, incluidas las tres mayores startups de IA, OpenAI, Anthropic y Cohere, así como los grandes modelos de lenguaje (LLMs) desplegados por las Big Tech, como Meta.
Wiener: ley para una ‘innovación segura’ de los modelos de IA
El proyecto SB 1047, Ley de Innovación Segura y Protegida para los Sistemas de Inteligencia Artificial de Frontera, presentado el 7 de febrero de 2024 por el senador demócrata Scott Wiener y que fue aprobado por el Senado estatal en mayo, exige que los grupos de IA de California garanticen a un organismo estatal de nueva creación que no desarrollarán modelos con “una capacidad peligrosa”, como la creación de armas biológicas o nucleares o el apoyo a los ataques de ciberseguridad.
Los desarrolladores tendrían que informar sobre sus pruebas de seguridad e introducir un llamado interruptor para apagar sus modelos, según la propuesta de ley.
Oposición a la ley
El proyecto ha suscitado una reacción negativa de los referentes de Silicon Valley, quienes alegan que obligará a las startups a abandonar el estado y evitará que plataformas como Meta operen modelos de código abierto, como su insignia Llama. Asimismo, consideran que esto dañaría los modelos de IA de código abierto al hacer a sus desarrolladores ‘potencialmente responsables’ de los actores maliciosos que manipulen sus modelos para causar daño.
Los críticos acusan a Wiener de ser demasiado restrictivo e imponer una costosa carga de cumplimiento a los desarrolladores, particularmente en las empresas más pequeñas. También arguyen que se centra en riesgos hipotéticos que agregan una responsabilidad ‘extrema’ a los fundadores.
Los riesgos de la IA
El rápido crecimiento y el enorme potencial de la IA han generado preocupaciones sobre la seguridad de la tecnología. En junio de 2023, Sam Altman, fundador y CEO de OpenAI, y otros expertos, advirtieron en una carta pública sobre los riesgos potenciales de la IA, que equiparan a una pandemia o un desastre nuclear, hasta desembocar, incluso, en la extinción de la especie.
Consulta: Llaman a mitigar riesgo potencial de ‘extinción’ de la IA como las pandemias y la guerra nuclear
Mientras que hace unos días, un grupo de empleados actuales y anteriores de OpenAI publicó una carta abierta en la que advierte que las “empresas de IA de vanguardia” no tienen suficiente supervisión de los gobiernos y plantean “riesgos graves” para la humanidad.
Desde 2023, gobiernos y organizaciones de todo el mundo han adoptado medidas para regular la IA al tiempo que la tecnología ha estado en auge.
Enmiendas
Ante las críticas, Scott Wiener, el autor del proyecto, dijo que no le sorprendía la resistencia porque al sector tecnológico ‘no le gusta tener ninguna regulación’. Sin embargo, tras semanas de discusiones con representantes de la industria, expertos en políticas y la sociedad civil, introdujo la primera serie de enmiendas.
Las enmiendas propuestas establecen que los desarrolladores de código abierto no serán responsables de los modelos “que se sometan a muchos ajustes”, que el requisito del interruptor de apagado no se aplicará a los modelos open source y que el proyecto sólo se aplicará a modelos grandes, cuyo entrenamiento cueste al menos 100 millones de dólares, para proteger el ecosistema de startups.
Por ahora, el proyecto ha sido programado para una votación por parte de la Asamblea General en agosto.