Autorregulación y corregulación, alternativas para adoptar IA en México y América Latina

América Latina adopta IA con una desigualdad estructural y un incipiente desarrollo regulatorio; entretanto, las normas internacionales adoptadas por el sector privado pueden allanar el camino hacia una adopción segura y responsable en las empresas, consideran expertos de NYCE y BP Gurus.

Ciudad de México. Mientras se desarrolla una regulación específica sobre la Inteligencia Artificial (IA) en México, han emergido modelos de autorregulación y corregulación que allanan el camino hacia su implementación responsable en las organizaciones, coincidieron NYCE y BP Gurus, durante la presentación del estudio Perspectivas sobre el estado de la Inteligencia Artificial en Latinoamérica: Oportunidades, Riesgos y el Papel de la ISO/IEC 42001.

Ante los dos modelos extremos regulatorios que imperan en la actualidad, el europeo restrictivo y el más abierto estadounidense, “lo mejor es un modelo de corregulación en donde la ley establece básicamente los abusos”, expuso Pablo Corona, director global de Ventas de NYCE.

dplnewsPabloCoronaNYCEAIMX rp30062025
Pablo Corona, director global de Ventas de NYCE y presidente de la Asociación de Internet MX. Foto: DPL News.

3 requisitos para una regulación de la IA

Para Corona, es necesario adoptar una “visión de riesgos”; este es uno de los tres elementos clave de la regulación sobre IA. El presidente de la Asociación de Internet MX explica este enfoque con una analogía de una gradación del transporte que incluye a la bicicleta, la motocicleta, el automóvil, el autobús, el avión y un submarino nuclear.

“Habría que entender que hay inteligencias artificiales de tamaño bicicleta, de tamaño moto, de tamaño auto, de tamaño autobús, de tamaño avión o de tamaño bomba nuclear y entonces entender cómo ponerle restricciones a los niveles de riesgo que tiene cada una de ellas”, respondió consultado por DPL News sobre cuál sería el mejor modelo que América Latina podría adoptar.

“La segunda clave es que hay un modelo de transparencia, explicabilidad y condiciones para que pudieran revocarse los datos con los que se entrenó una Inteligencia Artificial, y la tercera tiene que ver con la autorregulación”, complementó Corona, quien concluyó que, por lo tanto, los usos deberían estar autorregulados por la industria y ser explicables, modificables y auditables con transparencia.

El riesgo de ampliar la brecha

La adopción de la IA se produce en un contexto de desigualdad estructural, limitación de capacidades institucionales y agendas regulatorias incipientes.

Según la Unión Internacional de Telecomunicaciones (UIT), 35% de la población rural en América Latina aún no tiene acceso regular a Internet. “Comenzamos con una brecha digital. La Inteligencia Artificial, desde esta perspectiva, nos está trayendo riesgos y desigualdad”, advirtió Ariana Bucio, directora de Operaciones (COO) de BP Gurus, durante la presentación.

“El reto más grande que tenemos como región es cerrar esta brecha, incorporar a poblaciones que no son consideradas, mujeres en la Inteligencia Artificial y promover las carreras de ciencia y tecnología, para que podamos formar talentos necesarios, porque sí tenemos en nuestra región datos, tenemos talento, pero no tenemos infraestructura”, agregó.

Adopción de IA en las organizaciones

Bucio explicó que para implementar la IA, primero es necesario establecer un objetivo y definir una problemática a resolver. “Sin un objetivo y sin una estrategia, la Inteligencia Artificial no va a funcionar. Entonces, todas las organizaciones deben comenzar con un liderazgo consciente”, aseveró.

También compartió que, en la actualidad, según el Banco Interamericano de Desarrollo (BID), 15% de las empresas en Latinoamérica ya han implementado pilotos de IA, “pero no significa que estén alineados al gobierno de la Inteligencia Artificial”. Por ello, tanto NYCE como BP Gurus promueven la creación de un nuevo rol: director de Inteligencia Artificial o Chief Artificial Intelligence Officer en inglés, que será multidisciplinario y, por lo tanto, se alimentará de diferentes perfiles.

Norma, punto intermedio

Para Pablo Corona, la norma ISO/IEC 42001, que establece los lineamientos para una gobernanza en el uso y aplicación de la Inteligencia Artificial en una organización, es el punto intermedio. Según el estudio de NYCE, “puede ser un puente entre la autorregulación tecnológica y la futura legislación regional sobre IA”.

El informe subraya la necesidad de “construir una arquitectura regulatoria gradual, flexible y orientada a resultados” y, en ese sentido, las normas internacionales ofrecen “un marco robusto, ético y aplicable que permite institucionalizar principios fundamentales de transparencia, rendición de cuentas y gestión de riesgos en el uso de la IA”.

Corona detalló que la certificación está dirigida a tres perfiles: desarrolladores de IA, prestadores de servicios y usuarios.Corona resaltó que, de acuerdo con el AI Readiness Index 2023 de Oxford Insights,  México ocupa el lugar 63 de 118 países en desarrollo de IA.

También advirtió que el problema con la Inteligencia Artificial es que es la primera herramienta generada por los seres humanos que se volvió sujeto, por lo que no existe marco jurídico, legal, social, regulatorio para controlarla y, por lo tanto, quien lo haga tendrá una ventaja social.