Esta herramienta revela qué tan preparado está el gobierno para el uso responsable de IA

La consultora Access Partnership lanzó la herramienta RARI, basada en principios, directrices, estándares y mejores prácticas internacionales, para ayudar a los gobiernos a identificar qué tan preparados están para la IA.

Ante el auge de la Inteligencia Artificial (IA), el uso responsable y ético de esta tecnología se ha convertido en una preocupación para gobiernos y empresas en todo el mundo.

La IA ya es una realidad y se está insertando en múltiples ámbitos del ámbito público, los negocios y la vida en general. Mientras esto sucede, las organizaciones se preguntan qué tan preparadas están para impulsar su aprovechamiento sin olvidar los riesgos.

Por eso, Access Partnership creó una herramienta que permite a los formuladores de política pública, reguladores y entidades públicas y privadas conocer qué tan preparados están sus ecosistemas para la implementación ética y responsable de la IA.

Se trata del Índice de preparación responsable de la IA (RARI, por sus siglas en inglés), que consiste en una metodología integral que posibilita llevar a cabo una evaluación comparativa, identificar brechas y detectar áreas de mejora en torno al desarrollo de la tecnología.

RARI sirve como una herramienta para que los gobiernos y economías midan el progreso de la adopción responsable y ética de la IA, tomando en cuenta parámetros como la privacidad, justicia, transparencia, equidad y sostenibilidad.

Te recomendamos: BID lanza plataforma para uso responsable de IA en América Latina

Access Partnership detalló que la plataforma se basa en principios, directrices, estándares y mejores prácticas internacionales, que han facilitado el crecimiento de mercados de la IA más maduros. 

Por eso, aunque es útil para el sector privado, la herramienta está pensada especialmente para el sector público, como reguladores y tomadores de decisiones en el gobierno.

La plataforma considera cuatro pilares fundamentales sobre el uso responsable de la IA, los cuales proporcionan una visión general de las capacidades, prioridades y resultados observados en la materia dentro de un ámbito concreto.

  • Pilar 1: incluye todas las leyes, políticas y regulaciones nacionales sobre IA, así como medidas e iniciativas adyacentes, que permitan el surgimiento de tecnologías basadas en datos y algoritmos. También contempla la formación de órganos o agencias nacionales dedicados a la habilitación y operación de la IA en general.
  • Pilar 2: abarca los principios, directrices y estándares que garantizan que la IA se desarrolle y aproveche de manera justa, ética, imparcial, inclusiva y sostenible.
  • Pilar 3: toma en cuenta el entorno empresarial y educativo que dota a la fuerza laboral de las habilidades, capacidades y conocimientos para desarrollar e implementar la IA de manera responsable. Esto, en suma, permitiría impulsar la inversión e innovación alrededor de la tecnología.
  • Pilar 4: analiza la gama de partes interesadas y organizaciones, incluido el sector privado, la academia, organizaciones no gubernamentales (ONG), organizaciones de la sociedad civil y organizaciones sin fines de lucro, que contribuyen a mitigar los riesgos y sesgos de la IA.

También lee: Infografía | Las 10 empresas que definen el futuro de la Inteligencia Artificial

Al examinar estos pilares, la herramienta ayuda a los gobiernos a hacerse y contestar preguntas que les permitan promover el uso responsable de la IA.

Por ejemplo, respecto al primer pilar, algunos cuestionamientos relevantes serían si ya existe una política, ley, regulación o estrategia de IA de la cual partir; si esta cuenta con objetivos claros, cronogramas, parámetros de medición y definición de roles; o si existe una agencia que se encargue de coordinar las metas y tareas respecto al uso de esta tecnología.

“Dado que la IA se ha introducido en todas partes de la sociedad, desarrollar prácticas responsables de IA no es una opción. El uso generalizado de la IA implica una serie de desafíos éticos y sociales, lo que exige que construyamos marcos reglamentarios para regir su implementación”.

“Con nuestro Índice de preparación responsable de la IA, buscamos facilitar la integración de la IA responsable en las agendas de digitalización de los países y garantizar que sus entornos políticos puedan avanzar con prácticas éticas de IA”, advirtió Greg Francis, director ejecutivo de Access Partnership.

RARI asigna una cantidad determinada de puntos para cada criterio que los gobiernos cumplan en relación con la Inteligencia Artificial. Y en una escala total de 100 puntos, las organizaciones pueden saber si están en un nivel emergente de preparación (0 a 35), prometedor (36 a 70) o avanzado (71 a 100 puntos).

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies