Así se planea la regulación de la IA

Excélsior Paul Lara

La semana pasada, más de mil “ilusos” trabajadores tecnológicos hicieron un llamado mundial para implementar un marco ético y de regulación para el uso de las diferentes inteligencias artificiales que comienzan a pulular por el mundo, incluido Chat GPT, y organismos tan importantes como la Unesco se sumó al llamado para crear un marco normativo global que sea adoptado en los próximos meses. Italia hasta prohibió la herramienta de Open AI, pero supongo que son más que “ilusos” al llevar a cabo esta postura cerrada.

Y déjenme dejarles en claro que no es el miedo a la tecnología, es el miedo a la gente, a los que están detrás de ella y su mal uso. Luego de una semana de analizar e investigar cuáles han sido algunas de las opciones que varias naciones y organizaciones trabajan, déjenme platicarles cuáles suenan bastante bien como reglas éticas estrictas para la Inteligencia Artificial.

A muchos de los que leemos y vemos tendencias tecnológicas desde hace muchos años, nos preocupan muchas de las cuestiones éticas que plantean estas innovaciones, en particular la discriminación y los estereotipos, incluida la cuestión de la desigualdad de género, pero también la lucha contra la desinformación, el derecho a la privacidad, la protección de datos personales y los derechos humanos y ambientales.

La autorregulación de esta industria no es suficiente para evitar estos daños éticos, razón por la cual se trabaja en marcos regulatorios para garantizar que los desarrollos de IA cumplan con el Estado de derecho, evitando daños y asegurando que cuando se produce alguno, los mecanismos de rendición de cuentas y reparación están disponibles, a mano para los afectados.

A la fecha, más de 40 “ilusos” países en todas las regiones del mundo ya están trabajando con las Naciones Unidas para desarrollar controles y equilibrios de IA a escala nacional, para después tratar de establecer un marco mundial.

Lo primero es crear un sistema regulatorio diseñado para guiar la innovación de IA en una dirección positiva y para fomentar la adopción responsable de tecnologías por la población en general, los gobiernos y las empresas. Hay que abordar desde dos tipos de impactos adversos: la seguridad, tomada en cuenta desde el daño físico, psicológico, a la propiedad o pérdida económica de una persona causada por los sistemas de IA; y los resultados no discriminatorios (impacto diferencial sesgado, injustificado y adverso de los sistemas de IA, basado en cualquiera de los motivos prohibidos para la discriminación en la Ley de Derechos Humanos de cada país, y luego mundial).

Se debe adoptar un enfoque ágil para la regulación de la IA mediante el desarrollo y la evaluación de normativas y pautas en estrecha colaboración con las partes interesadas en un ciclo regular, y adaptando la aplicación a las necesidades del entorno cambiante. Tampoco es un trabajo que requiera unas semanas. Si tomamos en cuenta lo que están haciendo algunas naciones como Canadá y Reino Unido, se podría establecer un calendario similar para otros países interesados: consulta sobre normativa (6 meses); elaboración de borradores de reglamentos (12 meses); consulta sobre proyectos de reglamento (3 meses); y entrada en vigor del conjunto inicial de reglamentos (3 meses).

En consecuencia, se prevé que habría un periodo de al menos dos años después de que el Proyecto de Ley reciba su aprobación, antes de que entre en vigor. Esto significa que las disposiciones podrían entrar en vigor no antes de 2025. Además, deben participar empresas, gobiernos, sociedad en general y especialistas.

Mucho de lo que se espera regular es lo que se denomina sistemas de IA de Alto Impacto, es decir, aquellos que afecten la salud, los derechos humanos, la seguridad y desequilibren gravemente las circunstancias económicas y sociales de las personas en su conjunto.

Como les he comentado anteriormente, la IA puede usarse mal en temas como sistemas de selección que afectan el acceso a los servicios (por ejemplo, acceso al crédito o al empleo); sistemas biométricos utilizados para identificación e inferencia; sistemas que pueden influir en el comportamiento humano a escala , y sistemas críticos para la salud y la seguridad.

Las sanciones administrativas regulatorias, que pueden ser monetarias o hasta de cárcel, son necesarias para evitar el incumplimiento de algunos que siempre buscan pasarse de listos. Las organizaciones deben realizar una revisión exhaustiva de cómo realizan negocios y administran los sistemas de IA, para mantener su avance y no socavar la tecnología, que, con buen uso y bajo la lupa, realmente cambiará el mundo, aun si nos ven como “ilusos”.