Biden ordena a empresas de IA transparentar pruebas de seguridad en EE. UU.

La medida del gobierno de Biden busca garantizar que los productos de IA sean seguros antes de lanzarse al mercado.

Crédito: Adobe Stock

Las grandes empresas que están desarrollando Inteligencia Artificial, como OpenAI, Meta y Microsoft, deberán informar al gobierno de Joe Biden en Estados Unidos los resultados de sus pruebas de seguridad.

El Consejo de IA de la Casa Blanca implementará esta nueva medida, para cumplir con los mandatos de la Orden Ejecutiva sobre la IA que Biden firmó en octubre de 2023.

Dicha ordenanza instruyó a las instituciones a adoptar nuevas acciones para evitar y mitigar los riesgos de la Inteligencia Artificial, a fin de proteger la seguridad y privacidad de las personas.

Una de las acciones contempladas en la Orden Ejecutiva era el establecimiento de requisitos clave bajo los cuales las empresas de los sistemas más potentes de IA (como ChatGPT de OpenAI) deben divulgar información acerca de sus pruebas de seguridad.

Para la definición de dichos requisitos, la Orden de Biden fijó un plazo de 90 días que terminan a finales de este mes de enero de 2024.

Te puede interesar: Un año después de ChatGPT llega la ‘regulación’ de la Inteligencia Artificial

En ese sentido, el Consejo de IA de la Casa Blanca se reunió este lunes 30 de enero para discutir sus avances.

Las agencias informaron que ya completaron todas las acciones de 90 días asignadas y progresaron otras directivas vitales que la Orden asignó durante un periodo más largo.

Dicho Consejo está conformado por altos funcionarios de una amplia gama de departamentos y agencias federales.

Los nuevos requerimientos establecen que las grandes empresas desarrolladoras de IA ahora deben compartir esta información sobre los sistemas de IA más potentes.

Además, tienen que informar al Departamento de Comercio de Estados Unidos sobre los grandes grupos informáticos capaces de entrenar estos sistemas.

Con esta medida, el gobierno de Joe Biden busca garantizar que los productos de IA desarrollados por las compañías tecnológicas sean seguros antes de lanzarse al público.

También lee: China y Estados Unidos acuerdan evaluar riesgos de Inteligencia Artificial

Por el momento, las agencias federales no han definido los requisitos a los que las empresas deben sujetarse para evaluar la seguridad de sus productos y soluciones de IA. Pero el gobierno de Joe Biden busca definir un marco normativo muy pronto, como parte de su Orden Ejecutiva.

Otra de las acciones que se contempla implementar es que las empresas de Nube tendrán que informar al gobierno cuando proporcionen capacidad informática a usuarios extranjeros.

De esta manera, los proveedores de Nube alertarían al gobierno cuando los clientes extranjeros entrenen modelos de IA más potentes, que según criterios de la administración estadounidense, podrían usarse para actividades malignas.

La infraestructura de Nube es considerada como crítica por Estados Unidos, por lo que al gobierno le interesa vigilar para qué y cómo es utilizada.

En especial, la Casa Blanca ha adoptado un enfoque de seguridad nacional sobre toda infraestructura crítica, y le preocupa la intrusión de actores de otros países.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies