Google presenta su marco para incrementar la seguridad en un entorno de Inteligencia Artificial

Ante el acelerado avance de las aplicaciones basadas en Inteligencia Artificial (IA) Generativa, Google presentó su marco conceptual para sistemas seguros de IA, con el cual pretende colaborar al establecimiento de estándares de seguridad para construir e implementar esta tecnología de manera responsable.

Según Google, el Marco Seguro de IA (SAIF, por sus siglas en inglés) se basa en las mejores prácticas de seguridad, como revisar, probar y controlar la cadena de suministro, a la vez que incorpora las tendencias en el desarrollo de esta nueva tecnología.

Un marco a través de los sectores público y privado es esencial para asegurarse de que los actores responsables salvaguarden la tecnología que respalda los avances de la IA, de modo que cuando se implementen los modelos de IA, sean seguros de forma predeterminada”, señalan Royal Hansen, vicepresidente de ingeniería para privacidad, seguridad y protección y Phil Venables, vicepresidente, director de seguridad de la información (CISO) en Google Cloud.

SAIF está diseñado para ayudar a mitigar los riesgos específicos de los sistemas de IA, como el robo del modelo, el envenenamiento de los datos de entrenamiento, la inyección de entradas maliciosas a través de una inyección rápida y la extracción de información confidencial en los datos de entrenamiento, según explican los directivos en una entrada al blog de la compañía.

En ese sentido, el marco se compone de seis pilares: expandir las bases sólidas de seguridad a IA; ampliar la detección y la respuesta para llevar la IA al universo de amenazas de una organización; automatizar las defensas; armonizar los controles a nivel de plataforma; adaptar los controles para ajustar las mitigaciones y crear ciclos de retroalimentación; y contextualizar los riesgos del sistema de IA en los procesos comerciales circundantes.

En el caso del primer pilar, Google recomienda que se aprovechen las protecciones de infraestructura seguras por defecto y la experiencia desarrollada durante las últimas dos décadas para proteger los sistemas, aplicaciones y usuarios de IA. Al mismo tiempo, se debe desarrollar la experiencia organizacional para seguir el ritmo de los avances en Inteligencia Artificial.

En el caso del segundo pilar, que se refiere a la ampliación de la detección y la respuesta para incluir la IA en el universo de amenazas de una organización, la compañía destaca la relevancia de una detección y respuesta oportunas. Para las organizaciones, esto incluye monitorear las entradas y salidas de los sistemas de IA generativa para detectar anomalías y usar inteligencia de amenazas para anticipar ataques.

Google recomienda también la automatización de las prácticas de seguridad mediante IA que pueden mejorar la escala y la velocidad, y tener la capacidad de enfrentar ataques provocados por esta misma tecnología.

Por otro lado, señala que también es importante armonizar los controles a nivel de plataforma para garantizar una seguridad constante en toda la organización, que tengan coherencia y permitan escalar las protecciones en diferentes plataformas y herramientas.

Adicionalmente, el marco propuesto por Google indica que es importante adaptar los controles para ajustar las mitigaciones y crear ciclos de retroalimentación más rápidos para la implementación de Inteligencia Artificial.

Y finalmente, se deben realizar evaluaciones de riesgo de extremo a extremo relacionadas con la forma en que las organizaciones implementarán la IA. Esto incluye una evaluación del riesgo comercial de extremo a extremo, como el linaje de datos, la validación y el monitoreo del comportamiento operativo para ciertos tipos de aplicaciones.