Hacia una inteligencia colectiva: regulando la Inteligencia Artificial

Rossa Commane, Director de la Red de Ciencia e Innovación para América Latina de la Embajada Británica en Brasilia

La Inteligencia Artificial (IA) es una herramienta que ofrece oportunidades globales enormes, tiene el potencial de transformar y mejorar el bienestar humano, la paz y la prosperidad. Nos permite simplificar procesos, reducir tiempos de entrega y potencializar servicios públicos: es una tecnología que usada a conciencia, puede convertirse en una fuerza para el bien.

Hace algunos años, la IA parecía algo lejano, un mecanismo de ciencia ficción que quizás robotizaría nuestras vidas. 

Y quién lo diría, hoy en día la IA está presente en todos lados, desde la sugerencia de ruta para llegar a casa, hasta el resumen de noticias compilado por nuestro smartphone; esta tecnología avanza mucho más rápido de lo que nadie podría imaginar.

Pero sin medidas de seguridad adecuadas que sigan el ritmo de su desarrollo, también existen muchos riesgos a mitigar, como lo menciona el reporte del gobierno británico “Frontier AI: capacidades y riesgos”: desde cuestiones como copyright y creación de imágenes sensibles, hasta noticias falsas y la creación de contenido o patrones con bases de datos cuyas fuentes no están verificadas.

Es clave abordar la IA desde la transparencia, la equidad, la rendición de cuentas, la regulación, la seguridad, la supervisión humana adecuada, la ética, la mitigación del sesgo, la privacidad y la protección de datos. 

Todas estas cuestiones son de importancia crítica y afirmamos la necesidad y urgencia de discutirlas.

La IA debe diseñarse, desarrollarse, distribuirse y utilizarse de forma segura, centrada en el uso seguro para el ser humano. 

Empresas, gobiernos y reguladores debemos trabajar juntos para proteger los derechos humanos, garantizar las libertades fundamentales y fomentar la confianza pública en los sistemas de IA para aprovechar plenamente su potencial.

Los riesgos de seguridad particulares surgen en la “frontera” de la IA, entendida como aquellos modelos de IA de propósito general y de alta capacidad, incluidos los modelos fundacionales, que podrían realizar una amplia variedad de tareas. 

Estos problemas se deben en parte a que estas capacidades no se comprenden plenamente y, por lo tanto, son difíciles de predecir.

El Reino Unido está preocupado por estos riesgos potenciales de la IA, en especial en torno a ciberseguridad, biotecnología, desinformación y democracia, por lo que estamos buscando ampliar aún más nuestra cooperación multilateral en la materia.

Hemos impulsado la conversación con la organización de la primera cumbre mundial de Inteligencia Artificial (AISS) en noviembre de 2023, en Bletchley Park, la cuna de la informática. 

Este fue el primer gran paso donde miembros de la sociedad civil, tomadores de decisiones, gobiernos y empresas se reunieron para discutir cómo podemos seguir desarrollando una IA segura.

Fueron 28 los países que firmaron la Declaración de Bletchley, un acuerdo de colaboración que nos permitirá desbloquear los enormes beneficios de la IA, donde se estipula la necesidad de monitorear y mitigar los riesgos y construir políticas que garanticen la seguridad de todas y todos respecto a su uso. 

Este instrumento compromete a los gobiernos a desarrollar mecanismos de transparencia en el sector privado, para luego desarrollar métricas de evaluación y herramientas de seguridad internacionales.

El Reino Unido se enorgullece de liderar el camino en el campo de la IA. Este compromiso se refleja en la importancia que atribuimos a los temas éticos y de seguridad asociados con su evolución. 

Concretamente, estamos colaborando con gobiernos en América Latina, en particular en Brasil y México, con diálogos sobre el diseño e implementación del sandbox para la IA en Reino Unido, término utilizado para referirse a espacios de prueba controlados donde se reúnen los reguladores para guiar a las empresas en el lanzamiento seguro de sus innovaciones al mercado. 

La iniciativa permite acelerar la transición de la investigación y el desarrollo al despliegue y comercialización de IA de frontera, construyendo un conocimiento colectivo y usado para el bien.

Este proyecto pretende mejorar el cumplimiento de las normas internacionales en México y Brasil para crear políticas armonizadas y facilitar a las empresas de los tres países a trabajar juntas sin importar las fronteras. 

Nuestros equipos en ambas embajadas celebrarán un mes de actividades que incluirán talleres con expertos británicos como el Open Data Institute y el Instituto Alan Turing, que compartirán las mejores prácticas en torno a la utilización de la IA, así como la presentación de un informe sobre el estado de la IA en estos países, con una invitación a dialogar sobre el rumbo de los principios, regulación y observación de esta tecnología emergente.

Cada persona, cada netizen, cada regulador y cada empresa tiene un compromiso en cuanto al uso y desarrollo de las inteligencias artificiales. Garantizar el desarrollo seguro de la IA permitirá que se utilice para el bien y amplificará el valor de la inteligencia colectiva.

#AIandLATAC