Veto controversial: el proyecto de ley de California que enciende el debate entre seguridad e innovación en la regulación de la IA
El veto del gobernador de California, Gavin Newsom, al proyecto de ley SB 1047, que buscaba regular la seguridad de la Inteligencia Artificial, ha desatado un intenso debate sobre cómo equilibrar la protección con la innovación en este sector clave.
El gobernador del estado de California, Gavin Newsom, vetó el proyecto de ley SB 1047, también conocido como “Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera”. Esta legislación, de haber sido aprobada, habría establecido una de las regulaciones más estrictas en Estados Unidos en torno a la seguridad en Inteligencia Artificial (IA).
Impulsada por el senador demócrata Scott Wiener, la propuesta buscaba responsabilizar a los desarrolladores de IA por los posibles daños que sus tecnologías pudieran causar, incluyendo víctimas humanas o pérdidas económicas superiores a los 500 millones de dólares.
Además, la ley habría obligado a las empresas a implementar controles de seguridad, como pruebas externas y un “interruptor de emergencia” para desactivar los sistemas en situaciones de riesgo.
También lee: California aprueba leyes para proteger a artistas del uso de su imagen con Inteligencia Artificial
El proyecto también imponía requisitos específicos para las empresas desarrolladoras de IA, tales como tomar “precauciones razonables” para evitar daños graves y realizar auditorías para evaluar riesgos. Se incluían, además, protecciones para denunciantes dentro de las compañías de IA que quisieran reportar problemas relacionados con la seguridad de estas tecnologías.
Newsom justificó su veto argumentando que, aunque la ley era “bien intencionada”, imponía “estándares estrictos incluso a las funciones más básicas” de la IA, lo que podría frenar la innovación tecnológica en el Estado.
Asimismo, señaló que la regulación debe basarse en “evidencia empírica y científica”, y mencionó que ya ha firmado leyes enfocadas en abordar riesgos conocidos, como las falsificaciones profundas o deepfakes. También indicó que consultará a expertos en IA para desarrollar un marco regulatorio más adecuado.
El gobernador reiteró que California seguirá trabajando en la creación de regulaciones basadas en investigación científica y consultas con expertos para implementar protecciones proactivas. Mientras tanto, el debate sobre cómo regular efectivamente esta tecnología emergente continúa en el centro del debate global.
Un proyecto de ley controvertido
El caso de California ha desatado un intenso debate entre la comunidad tecnológica. El senador Wiener calificó el veto como un “retroceso” en la supervisión de las grandes corporaciones tecnológicas, mientras que figuras influyentes como Geoffrey Hinton y Yoshua Bengio, conocidos como los “padrinos de la IA”, apoyaron la propuesta debido a sus preocupaciones por los peligros catastróficos que la IA podría representar.
El multimillonario Elon Musk también respaldó el proyecto, describiéndolo como una “decisión difícil” que podría incomodar a varios, pero necesaria para regular una tecnología tan poderosa.
Relacionado: Elon Musk respalda ley de Inteligencia Artificial en California
Por otro lado, empresas emergentes y gigantes tecnológicos que lideran el desarrollo de la IA, como Google, Meta, OpenAI y Microsoft, se opusieron fuertemente, argumentando que los umbrales establecidos por la ley eran arbitrarios y perjudicarían el ecosistema y desarrollo económico de California. Jason Kwon, director de estrategia de OpenAI, expresó que la legislación podría “amenazar el crecimiento” de la industria y ahuyentar a ingenieros y emprendedores del Estado.
Líderes políticos influyentes, como la expresidenta de la Cámara de Representantes, Nancy Pelosi, y la alcaldesa de San Francisco, London Breed, también manifestaron su oposición, advirtiendo que la ley podría obstaculizar el liderazgo tecnológico del Estado.
El desafío de regular adecuadamente la IA
Este veto destaca los desafíos que enfrentan los legisladores a nivel mundial al intentar equilibrar la regulación de la IA sin frenar la innovación. Aunque el lanzamiento de ChatGPT en 2022 generó un auge global en la IA Generativa, Estados Unidos aún no ha aprobado una legislación integral sobre esta tecnología.
El debate en torno a SB 1047 refleja la complejidad global en la regulación de la IA. Mientras Europa avanza con su Ley de IA, Estados Unidos sigue rezagado en términos legislativos. Newsom destacó en un comunicado la importancia de un enfoque basado en evidencia empírica, una postura que está ganando terreno a nivel global.
A medida que la IA sigue evolucionando, se vuelve urgente desarrollar marcos regulatorios ágiles y efectivos. Los riesgos asociados a la IA —desde las falsificaciones profundas hasta su uso indebido en decisiones críticas— exigen un enfoque global que equilibre la innovación con la seguridad pública.
La decisión de Newsom tampoco cierra el debate sobre la regulación de la IA, sino que lo intensifica. Mientras algunos consideran el veto como un retroceso, otros lo ven como una oportunidad para desarrollar regulaciones más ajustadas a la realidad tecnológica actual.
Lo cierto es que, a medida que la Inteligencia Artificial sigue expandiéndose, la creación de políticas equilibradas es crucial para prevenir desastres y fomentar un entorno donde la IA pueda beneficiar a toda la sociedad.