La administración del presidente de Estados Unidos, Joe Biden, organizará una reunión para debatir sobre la regulación para coordinar el desarrollo de una Inteligencia Artificial (IA) segura, a la que asistirán científicos y expertos en el tema, provenientes de al menos nueve países y de la Unión Europea.
La reunión se realizaría los días 20 y 21 de noviembre en San Francisco, después de las elecciones presidenciales de Estados Unidos. La reunión buscará dar seguimiento a la Cumbre sobre Seguridad de la IA realizada en el Reino Unido hace casi un año y la celebrada en mayo en Corea del Sur.
La secretaria de Comercio de Estados Unidos, Gina Raimondo, afirmó que será la “primera reunión para ponerse manos a la obra”, luego de la Cumbre que dio lugar a una red de institutos de seguridad con respaldo público para avanzar en la investigación y las pruebas de la tecnología, según cita The Associated Press (AP).
“Creo que hay ciertos riesgos que estamos alineados en querer evitar, como las IAs aplicadas a las armas nucleares, las IAs aplicadas al bioterrorismo. Todos los países del mundo deberían poder estar de acuerdo en que esas son cosas malas y deberíamos poder trabajar juntos para evitarlas”, dijo.
En ese sentido, esta nueva reunión buscará ser un centro de colaboración técnica, más que una cumbre. Entre los temas a tratar, se incluyen los riesgos por la generación de deepfakes o contenido falso por IA, así como resolver el complejo reto de determinar cuándo un sistema de IA representa un riesgo importante que requiere de una regulación específica.
“Vamos a pensar en cómo trabajar con los países para establecer normas en relación con los riesgos de los contenidos sintéticos, los riesgos de que la IA sea utilizada maliciosamente por agentes malintencionados. Porque si controlamos los riesgos, es increíble pensar en lo que podríamos conseguir”, señaló Raimondo, de acuerdo con AP.
Raimondo y el secretario de Estado, Antony Blinken, anunciaron que sus respectivos organismos copatrocinarán la reunión, en conjunto con una red de institutos nacionales de seguridad de la IA de reciente creación en Estados Unidos y el Reino Unido, así como en Australia, Canadá, Francia, Japón, Kenia, Corea del Sur, Singapur y los 27 países de la Unión Europea.
Múltiples países han comenzado a evaluar la posible regulación que deberían aplicar sobre la Inteligencia Artificial, de modo que se pueda realizar una mejor administración de los riesgos, desde su impacto sobre el mercado laboral, el contenido y la desinformación, hasta los algoritmos utilizados y su impacto social en temas como desigualdad.
En julio pasado, la Unión Europea publicó una de las primeras leyes para la regulación de IA, que incluye requisitos específicos para los sistemas de Inteligencia Artificial de alto riesgo y obligaciones para los proveedores, así como normas de transparencia, seguimiento y vigilancia.
Por su parte, en octubre de 2023, Biden firmó una orden ejecutiva sobre IA que exige a los desarrolladores de los sistemas de IA más potentes que compartan los resultados de las pruebas de seguridad. Y en agosto de este año, también firmó un memorando de entendimiento con las firmas de IA, Anthropic y OpenAI, para la colaboración en la investigación, prueba y evaluación de seguridad.
Algunas empresas del sector se han mostrado abiertas a la adopción de un marco regulatorio, pero también advierten que se debe buscar un equilibrio que facilite la innovación en el sector.
Eric Schmidt, expresidente y exCEO de Google, y uno de los inversionistas más activos de Silicon Valley, ha impulsado la adopción de un enfoque de “autorregulación” basado en la colaboración de la industria, para evitar marcos restrictivos. Sin embargo, algunos gobiernos consideran que un marco regulatorio adecuado podría mitigar los riesgos y aún permitir la innovación.
“Ese es el modelo correcto. Dicho esto, ahora mismo todo es voluntario. Creo que probablemente tengamos que ir más allá de un sistema voluntario. Y necesitamos que el Congreso tome medidas”, afirmó Raimondo, según AP.