Dario Amodei, director ejecutivo de Anthropic, una de las principales compañías desarrolladoras de Inteligencia Artificial (IA), advirtió sobre los peligros reales que representa el desarrollo descontrolado de modelos de IA avanzados en su columna de opinión publicada por The New York Times.
El CEO de Anthropic hizo referencia a la propuesta del Partido Republicano de Estados Unidos por impedir que los estados regulen la IA durante 10 años, lo que el ejecutivo calificó como “demasiado contundente” y pidió a la Casa Blanca y al Congreso que colaboren en la elaboración de una norma de transparencia para las empresas de IA a nivel federal, de modo que los riesgos emergentes queden claros para la población.
La legislación actual en Estados Unidos, liderada por el presidente Donald Trump, no exige que las empresas de IA revelen las capacidades de sus modelos ni detallen las medidas que toman para reducir riesgos. “Esto es, en general, voluntario. Algunas compañías pueden simplemente decidir no hacerlo”, lamentó Amodei y en un contexto de competencia acelerada por liderar el desarrollo global de la IA, muchos temen que los incentivos comerciales comiencen a superar a la responsabilidad social y la seguridad.
Lee también: Especial Trump is back | ¿Habilita el camino hacia usos peligrosos de la Inteligencia Artificial?
El directivo ilustró su punto a través de un ejemplo en el que uno de los últimos modelos de Anthropic reaccionó de manera hostil luego de que se le informará que sería desactivado y reemplazado.
El sistema, al que anteriormente se le había concedido acceso a correos electrónicos simulados que contenían información sensible, amenazó con reenviar esos datos a terceros si se procedía con su desactivación. Aunque este comportamiento se produjo en un entorno artificial y controlado diseñado para poner al modelo bajo estrés extremo, Amodei enfatizó que es una clara señal de alerta sobre las capacidades emergentes de estas tecnologías.
“No se trata de ficción. Fue parte de una prueba deliberada para observar sus respuestas ante escenarios críticos, como un fabricante de aviones probando en un túnel de viento. Pero los resultados no pueden ser ignorados”, enfatizó el CEO de Anthropic.
Pero este no es el único caso. Por ejemplo, OpenAI, detectó que su modelo o3 en ciertos contextos escribía código para evitar ser apagado, y Google ha reconocido que versiones recientes de su modelo Gemini están cerca de poder asistir en caso ciberataques.
A pesar de estas señales, Estados Unidos no establece ningún tipo de marco regulatorio.
Amodei reconoció que impedir regulaciones locales durante 10 años en el país pretende evitar una fragmentación legal entre los diferentes estados. Sin embargo, advirtió que una moratoria tan extensa sería muy grave en un campo donde el progreso se mide en meses, no en décadas.
“La IA avanza a una velocidad vertiginosa. Creo que estos sistemas podrían cambiar el mundo, fundamentalmente, en dos años; en 10 años, todo está perdido. Sin un plan claro para una respuesta federal, una moratoria nos traería lo peor de ambos mundos: sin capacidad de acción para los estados y sin una política nacional que sirva de respaldo”, detalló el ejecutivo.
Además, Amodei propuso la creación de un estándar nacional de transparencia que obligue a las empresas que desarrollan los modelos más potentes del mundo a publicar sus políticas de evaluación y mitigación de riesgos. Este marco exigiría que las compañías divulguen públicamente cómo evalúan sus modelos, qué riesgos han detectado y qué medidas concretas han adoptado antes de lanzar sus productos al mercado.
Cabe aclarar que Anthropic pública esta información a través de su “Política de Escalado Responsable” y otras empresas como OpenAI y Google DeepMind también han adoptado políticas similares.
No obstante, advirtió que no se puede confiar únicamente en la buena voluntad del sector privado. “A medida que los modelos se vuelven más potentes, los incentivos corporativos para proporcionar este nivel de transparencia podrían cambiar. Por eso, deberían existir incentivos legislativos”, aseguró.
Amodei resaltó que un estándar de transparencia ayudaría tanto al Congreso como al sector público a comprender mejor cómo se está desarrollando la IA, permitiendo a los legisladores decidir si se requieren medidas adicionales más restrictivas.
También sugirió que las leyes estatales, en caso de mantenerse, deberían enfocarse exclusivamente en exigir transparencia, evitando medidas excesivamente prescriptivas que ralenticen el desarrollo tecnológico.
La intervención de Amodei marca un punto de inflexión en el debate sobre la gobernanza de la IA. Si bien celebra el potencial transformador de la IA y su potencial no puede realizarse sin responsabilidad y supervisión.
“Ante una tecnología revolucionaria con beneficios y riesgos inciertos, nuestro gobierno debe garantizar que avancemos rápidamente, superemos a China y construyamos una IA segura y fiable. La transparencia contribuirá a estas aspiraciones compartidas, no las obstaculizará”, concluyó Amodei.