Mientras Europa busca ser el regulador de facto de la IA a nivel global, otras naciones como Estados Unidos o China consideran que es demasiado pronto para regular esta tecnología disruptiva.
Con una tecnología tan prometedora y que podría atravesar todos los ámbitos de nuestra vida como es la Inteligencia Artificial (IA), es una tendencia de los gobiernos de querer ir hacia una legislación. Y muchos países están transitando este camino.
Los objetivos que en general persigue la regulación de IA son proteger la privacidad, la seguridad y los derechos de las personas, la protección de datos, la transparencia y la explicabilidad, la responsabilidad y la supervisión, y la equidad y no discriminación.
El interés de los policymaker por la IA va en aumento. De acuerdo con el Índice de la Inteligencia Artificial 2023, realizado por la Universidad de Stanford, 31 países ya han aprobado por lo menos una ley relacionada con esta tecnología. Asimismo, un análisis de los registros parlamentarios sobre IA en 81 países muestra que las menciones de la IA en los procedimientos legislativos mundiales han aumentado casi 6.5 veces desde 2016.
Número de proyectos de ley relacionados con IA aprobados por países
.
Hay distintos enfoques de regulación de la IA. El más predominante, y también uno de los primeros, es el de la Unión Europea (UE), que en 2021 presentó el reglamento de IA (llamada AI Act), regulación que se centra en la protección de derechos y la seguridad de las personas, la transparencia y la responsabilidad de los sistemas de IA. Con esta estrategia, Europa busca ser el regulador de facto a nivel global de IA, con una visión de contar con un marco regulatorio claro que ataque los principales problemas y al mismo tiempo genere seguridad jurídica, en una tecnología que es disruptiva y aún se está desarrollando. A pesar de que iniciaron temprano el debate, la regulación aún no está completamente terminada, ya que cuando salió ChatGPT, los comisionados decidieron incluir artículos para la revisión de esta herramienta. Se espera que la norma entre en vigencia en 2025.
Bruselas asegura que su objetivo principal es abordar los riesgos generados por los distintos usos de la IA a través de “un conjunto de normas complementarias, proporcionadas y flexibles”. La propuesta establece cuatro niveles de riesgo para los sistemas de IA: inaceptable, alto, limitado y mínimo. Los sistemas de IA considerados de alto riesgo están sujetos a requisitos más estrictos y deben cumplir con ciertas obligaciones, como la necesidad de realizar una evaluación de riesgos y una evaluación de impacto en los derechos fundamentales, así como la necesidad de ser transparentes y explicables.
Además, incluye una lista de usos de IA que se consideran inaceptables y están prohibidos en toda la UE. Esto incluye el uso de sistemas de IA para la manipulación de comportamientos humanos y el uso de sistemas de reconocimiento facial en tiempo real en lugares públicos, excepto en circunstancias específicas y limitadas. También pretende crear una Junta Europea de Inteligencia Artificial que supervisaría la aplicación del Reglamento y garantizaría una aplicación uniforme en toda la UE.
Por su parte, Estados Unidos no cuenta con una regulación federal específica para la inteligencia artificial (IA), sus reglas van más que nada en dirección a preservar la ciberseguridad. En su lugar, el gobierno de los Estados Unidos ha adoptado un enfoque más flexible y se ha centrado en la promoción de la innovación y el desarrollo. Alguna de las regulaciones que tiene son: la Comisión Federal de Comercio (FTC, por sus siglas en inglés) ha emitido informes y directrices sobre el uso de la IA en la publicidad y el marketing, y la Administración Federal de Aviación (FAA, por sus siglas en inglés) ha establecido regulaciones para el uso de drones que utilizan tecnología de IA. Mientras que algunos Estados han implementado legislaciones específicas, como California, que ha aprobado la Ley de Privacidad del Consumidor de California (CCPA, por sus siglas en inglés), que establece requisitos de privacidad y transparencia para el uso de la IA en la recopilación y el procesamiento de datos personales.
Al igual que Estados Unidos, China ha implementado una regulación de la IA que está enfocada en apoyar y promover la innovación y el desarrollo de la tecnología. En 2019, el gobierno chino emitió un plan de acción para la regulación de la IA, que establece directrices para el desarrollo de la IA y su uso en diferentes sectores, incluyendo la atención médica, la agricultura, la manufactura y la seguridad pública. Allí se establecen ciertas restricciones y obligaciones. Por ejemplo, la regulación requiere que los sistemas de IA utilizados en áreas como la seguridad pública y la atención médica sean probados y certificados antes de su uso, y establece requisitos de transparencia y protección de datos para la recopilación y el uso de información personal.
En definitiva, la IA terminará por tocar la vida de la gente y por eso es necesario un diálogo abierto sobre sus impactos. El éxito de la regulación IA dependerá de la cooperación y el compromiso de los gobiernos, la industria y los ciudadanos para abordar los desafíos, maximizar los beneficios de la tecnología, cuidar los derechos y no inhibir la innovación.
Las personas en el centro aparece como objetivo casi conjunto, mientras que atender los riesgos y marcar los límites necesarios son desafíos habituales en la lista del futuro. Quién ganará la batalla es algo que está por verse tanto como qué parámetros definirán el triunfo en la contienda global.
.

Digital Trends 3:
Gobernanza en Inteligencia Artificial y futuro del trabajo
Digital Trends 3 Gobernanza Inteligencia ArtificialDescarga
.
Digital Trends 4
Computación cuántica: ¿resolverá los grandes problemas de la humanidad?

Digital Trends 2
Geopolítica Digital: ¿colaboración o conflicto tecnológico?
Digital Trends 1
Chips Wars: en busca del Santo Grial tecnológico