IA debe regularse de manera ética y con el ser humano al centro

En el panel sobre Innovación e IA, expertos advirtieron que el enfoque de la regulación debe estar puesto en la ética y los derechos humanos.

La reciente aprobación, por unanimidad, del Pacto para el Futuro por la Asamblea de 

Pacto Digital Global, que incluye un componente importante sobre Inteligencia Artificial, demuestra que, “a nivel global, es un tema relevante para los gobiernos del mundo”, destacó Beatriz Guzmán, coordinadora del Sector Social de Ciencias Sociales y Humanas de la Unesco.

Ética de la IA

En el panel Innovación e Inteligencia Artificial, organizado en la jornada inaugural de México Digital Summit, el coordinador del programa de Inteligencia Artificial del Instituto de Investigaciones Jurídicas de la UNAM, Pablo Pruneda, enfatizó que la IA tiene un interés muy particular para el derecho: “La irrupción de esta tecnología constituye el principal reto en la historia del derecho”, sentenció, debido a que, por su dinámica, ya no sólo puede aprender, sino también generar contenido.

En cuanto a su evolución, Pruneda recordó que en 2017 comenzaron a publicarse las estrategias nacionales de Inteligencia Artificial (ENIA), y luego vinieron los modelos de códigos de principios éticos, como los de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) y la Organización para la Cooperación y el Desarrollo Económicos (OCDE).

Guzmán, por su parte, recapituló que desde hace 30 años la Unesco promueve un enfoque ético y pro derechos humanos y en 2021 emitió su Recomendación sobre la Ética de la IA, que incluye valores, principios y 11 acciones de política pública.

Sin embargo, tanto Pruneda como Guzman advirtieron que estos estos instrumentos ‘no son vinculantes’. Por ello, la representante de la Unesco enumeró las herramientas que ha desarrollado la organización para aplicar la regulación de manera local, como su Metodología de evaluación de la preparación (RAM, por sus siglas en inglés), que evalúa cómo están los países y la evaluación de impacto ético.

Meta también cuenta con una Evaluación de riesgos de IA, expuso Glenda Michel Gutiérrez, gerente de Políticas Públicas, Alcance Académico y de ONG de la compañía. Agregó que también cuentan con mecanismos de gobernanza para proteger la privacidad, propiedad intelectual (PI), la seguridad e incluso posibles impactos sociales. 

También dijo que la empresa promueve la transparencia, la igualdad y la disminución de sesgos. Por ello, puntualizó, sus modelos fundacionales, sus grandes modelos de lenguaje (LLM) como Llama, siguen procesos de innovación abierta, para que puedan compartirse.

“Regular desde el punto de vista lejano puede que no sea tan bueno como estar dentro”, advirtió, por su parte, Carlos Sánchez. El vicepresidente de Tecnología y Estrategia Telco LAD en Oracle señaló que en América Latina hay proceso de expansión de centros de datos para Nubes públicas, y, en la vertical de telecomunicaciones, ‘la adopción lleva un ritmo frenético’.

Sánchez agregó que, al brindar la capacidad de procesamiento, la Nube habilita la IA. Señaló que Oracle lanzó recientemente unidades de procesamiento gráfico (GPUs) en unidades de infraestructura que pueden ser alojadas en premisas de cualquier empresa u organización. “Quien accede a la Nube, no se devuelve”, finalizó.

Colaboración multisectorial

Pruneda resaltó la necesidad de un enfoque multistakeholder para la regulación, en el que participen usuarios, academia, el sector privado, el gobierno y organizaciones de la sociedad civil (OSC). En ese sentido, Guzmán dijo que la Unesco cuenta con grupos para poder trabajar de manera multisectorial con toda la sociedad, y compartir buenas prácticas sobre la gobernanza de la innovación y la IA, como Women for Ethical AI.

Ser humano, al centro; pasar a la acción

“Es necesario que el ser humano esté en el centro, pero de una forma real”, exhortó Luis Adrián Salazar, experto TIC y consultor independiente. El exministro de Telecomunicaciones de Costa Rica llamó a pasar del discurso a la acción y a través de estrategias convergentes. Y la única forma de lograrlo es que la cabeza de la organización sea quien organice y lleve la batuta.

Pedro Francisco Rangel Magdaleno, subprocurador de Telecomunicaciones de la Procuraduría Federal de Consumidor (Profeco) también exhortó a que la innovación se apegue al cumplimiento de los derechos humanos

En el caso particular de la IA, conminó que el ser humano debe estar al centro desde el diseño, hasta su uso e implementación. Y, además del modelo de autorregulación, la Profeco promueve que se haga a través de tres vías: políticas de reembolso, protección contra publicidad engañosa y protección de datos personales. “Es necesario que, en cualquier producto o servicio que haga uso de Inteligencia Artificial, se ponga al consumidor al centro”, concluyó.