La gobernabilidad, en el contexto de la inteligencia artificial (IA), se refiere a la capacidad para controlar, gestionar y regular los sistemas de IA.
Este concepto puede entenderse como un conjunto de principios y prácticas que garantizan que la IA siga siendo una tecnología con beneficio social a medida que avanza.
En su esencia, la gobernabilidad de la IA trata de mantener la supervisión y el control humano. Implica hacer que los procesos de toma de decisiones de la IA sean transparentes y comprensibles, de modo que podamos conocer cómo y por qué un sistema de IA llega a ciertas conclusiones. Esta transparencia permite atribuir la responsabilidad de las acciones de la IA a entidades o individuos específicos.
Otro aspecto crucial es la capacidad para intervenir en las operaciones de la IA cuando sea necesario. Es decir, tener mecanismos para modificar un sistema de IA si exhibe un comportamiento inesperado o indeseable. Lo anterior, de tal forma que el comportamiento de la IA sea predecible, permitiéndonos anticipar sus acciones dentro de ciertos límites.
Que los sistemas de IA se alineen con los valores y la ética también es una parte clave de la gobernabilidad. Esto implica diseñar la IA para que se comporte de manera consistente con principios morales y objetivos previstos.
La seguridad está estrechamente relacionada con esto, ya que necesitamos implementar medidas para evitar que la IA cause daños no intencionados.
A medida que los sistemas de IA se vuelven más complejos y poderosos, mantener una gobernanza efectiva se vuelve cada vez más desafiante. Por eso, la escalabilidad del control es una consideración importante. Necesitamos mecanismos de gobernanza que puedan adaptarse y crecer junto con la tecnología de IA.
Por último, la gobernabilidad abarca la capacidad de revisar y evaluar el rendimiento de la IA después del hecho. Esto nos permite aprender de experiencias pasadas, refinar enfoques de gobernanza y adaptarse a nuevos desafíos a medida que la IA continúa evolucionando.
En esencia, la gobernabilidad de la IA trata de crear un marco que permita aprovechar sus beneficios sujetos a mitigar los riesgos, manteniendo la intervención humana en un ecosistema digital cada vez más impulsado por la IA. Este es un planteamiento fundamentalmente económico.
Por otro lado, el Principio de Precautorio (PP) es un enfoque de gestión de riesgos que plantea lo siguiente: ante un entorno de incertidumbre sobre los efectos o resultados de implementar una nueva tecnología, especialmente cuando podría ocurrir un daño sustantivo e irreversible, se justifica un enfoque que privilegie la cautela. Con frecuencia se resume en el dicho popular “más vale prevenir que lamentar”, lo cual se traduce en una regulación estricta en la adopción o liberación de una tecnología cuando los riesgos potenciales se anticipan sustantivos, pero no se les puede asignar un nivel de riesgo o probabilidad.
En economía, se distingue entre riesgo e incertidumbre conforme a la definición de Frank Knight, economista estadounidense, quien estableció esta distinción en su libro de 1921 Riesgo, incertidumbre y beneficio. Esta distinción es fundamental para la regulación económica. Conforme a su explicación, la diferencia es:
– El riesgo se refiere a situaciones en las cuales el tomador de decisiones puede asignar probabilidades matemáticas a la aleatoriedad de un evento, es decir, el riesgo es medible. Las probabilidades de los posibles resultados son conocidas o pueden estimarse con cierto grado de precisión estadística.
En cambio, la incertidumbre:
– Se refiere a situaciones en las cuales esta aleatoriedad “no puede” expresarse en términos de probabilidades matemáticas. Es inmedible y no es posible calcularla, ya que los posibles resultados no pueden ser conocidos en su alcance o magnitud, y su probabilidad no puede estimarse.
En el caso de los reguladores, utilizan el PP para justificar todo tipo de regulaciones sin primero justificar que se está ante escenario de incertidumbre, y que los efectos pueden ser sustantivos e irreversibles.
De esta manera, optan por acciones regulatorias subjetivas y sin apegarse a un análisis costo beneficio de sus medidas regulatorias.
Es decir, existe un abuso por parte de los reguladores y de las instancias jurisdiccionales de privilegiar las acciones regulatorias por lo que “pudiera ser o causar”, sin dilucidad si es un exceso regulatorio ante riesgos que, en realidad, son mínimos o inexistentes cuando son debidamente ponderados.
Knight argumentó que es la incertidumbre, no el riesgo, la que forma la base del beneficio económico en los mercados. A menudo, esto se interpreta como producto de una posición dominante en dichos mercados, y no como la debida retribución ante un escenario de aleatoriedad.
Los empresarios son recompensados por asumir la incertidumbre, que no puede ser asegurada o eliminada mediante la diversificación.
La distinción anteriormente mencionada es relevante para la discusión sobre la IA y el Principio de Precaución, dado que los desafíos planteados por los sistemas avanzados de IA, especialmente los GPT (General Purpose Techonology), se ubican actualmente en la categoría de incertidumbre knightiana, más que en la de riesgo medible.
El PP ha sido, durante mucho tiempo, una piedra angular en la gestión de riesgos asociados con nuevas tecnologías, especialmente cuando existe incertidumbre científica sobre sus resultados (v.gr. cambio climático o materiales genéticamente modificados).
Este principio ha influido en diversas áreas de la política pública, incluida la seguridad de productos y salud, la gestión de riesgos ambientales y, más recientemente, la Inteligencia Artificial.
Tanto en Estados Unidos como en la Unión Europea se ha adoptado el PP, consagrándolo en tratados y aplicándolo a la seguridad de productos, la legislación ambiental y, ahora, a la Ley de Inteligencia Artificial.
La legislación en ambos lados del Atlántico clasifica las aplicaciones de IA según su nivel de “riesgo anticipado” (¿es posible determinarlo?) y especifica los procesos que deben completar antes de ser comercializadas o utilizadas.
Las aplicaciones de “alto riesgo” deben someterse a rigurosos procesos de prueba y aprobación, con extensos requisitos de monitoreo e informes post-mercado. En ambos casos, la IA asociada responsabiliza a los operadores por daños inesperados por IA de “alto riesgo” sujetos a leyes de responsabilidad estricta.
Sin embargo, ambos marcos regulatorios no logran abordar completamente la complejidad y la incertidumbre inherentes al ecosistema de la IA. La crítica clave a estos enfoques regulatorios es su nivel de riesgos supuestamente conocidos asociados con usos específicos de la IA, en lugar de tener en cuenta los comportamientos emergentes impredecibles que pueden surgir de sistemas complejos.
El PP y las regulaciones asociadas han sido relativamente efectivos en la gestión de la incertidumbre científica para nuevas tecnologías cuando dicha incertidumbre tiene un punto definido y medible de precisión científica o daños potenciales en una población específica.
Este enfoque ha funcionado para nuevos fármacos o productos químicos agrícolas, donde es posible especificar las poblaciones que probablemente se verán afectadas y establecer medidas de seguridad para un uso responsable, pero no en sistemas complejos como los algoritmos de IA en GPT.
Ahora es necesario definir qué es un sistema complejo para entender las limitaciones de las autoridades frente a la evolución de la IA.
Los sistemas complejos se caracterizan por una gran cantidad de elementos organizados de forma flexible y con innumerables interacciones entre ellos. Además, estos sistemas evolucionan con el tiempo, están abiertos a su entorno y son irreversibles.
Otras características de los sistemas complejos incluyen la autoorganización en patrones, el comportamiento caótico —en el que pequeños cambios en las condiciones iniciales pueden producir grandes cambios posteriores—, la mayor frecuencia de eventos fortuitos de lo que podría predecirse y la interacción adaptativa entre agentes.
La predicción en estos sistemas no es posible debido a las relaciones no lineales entre los elementos. La complejidad también puede resultar de interacciones que son “secuencias desconocidas o secuencias no planificadas e inesperadas, que no son visibles o no son inmediatamente comprensibles.
Los desarrollos recientes en IA, particularmente los algoritmos generativos pre-entrenados (GPTs) como los modelos de lenguaje masivo (LLMs), presentan un desafío diferente a sus antecesores.
A diferencia de los modelos de IA tradicionales, entrenados en reglas lógicas y reproducibles, los GPTs se entrenan con cantidades masivas de datos y producen resultados basados en recombinaciones sofisticadas y probabilísticas de respuestas humanas.
Este cambio de paradigma plantea preguntas sobre la aplicabilidad de los marcos regulatorios tradicionales. Tales diferencias clave hacen que la IA GPT sea difícil de regular bajo los instrumentos tradicionales de regulación por los siguientes factores:
1. Imprevisibilidad: no es posible entender completamente o predecir cómo un GPT formula su producto, es decir, no se conoce el alcance de su producto, lo que dificulta especificar límites operativos “seguros”. Los GPTs pueden usarse para una amplia variedad de objetivos, muchos de los cuales pueden no haber sido contemplados por sus desarrolladores. Esto complica los problemas de responsabilidad en caso de resultados inesperados.
2. Aumento en dimensiones de riesgo: el número de dimensiones de riesgo y poblaciones susceptibles que necesitan ser analizadas y monitoreadas para las GPTs es mayor que para las tecnologías tradicionales reguladas por el PP. La complejidad de la gestión de riesgos para los GPTs conlleva costos mucho más elevados, que no necesariamente reducen el riesgo de daño.
Dadas estas diferencias, se argumenta que un conjunto único de reglas y procesos no es apropiado para regular la IA GPT. En cambio, deben preferirse reglas específicas para cada industria y caso de uso. Por lo tanto, su gobernabilidad y regulación necesitan reflejar diferencias respecto a otros componentes del ecosistema digital, alejándose de regulaciones tradicionales y adoptando enfoques específicos basados en casos. Se requiere la consideración de múltiples perspectivas, consecuencias no intencionadas y la naturaleza dinámica del ecosistema, reconociendo las limitaciones de las regulaciones actuales para garantizar la seguridad o anticipar todos los resultados potenciales. Es necesario migrar hacia estrategias de gobernabilidad adaptativas y holísticas que puedan mantener el ritmo de la innovación en IA.
La capacidad de cómputo, los datos y los algoritmos (investigación y desarrollo) son tres insumos fundamentales en el desarrollo y despliegue de sistemas de Inteligencia Artificial. De estos, la capacidad de cómputo ha surgido como un factor clave, ya que la potencia computacional utilizada para entrenar modelos de IA de frontera se duplica aproximadamente cada seis meses.
¿En qué parte del mundo se encuentra físicamente toda la computación utilizada en el desarrollo y despliegue de IA? La respuesta es clave desde las perspectivas de la gobernabilidad de la IA y el análisis geopolítico.
La gobernabilidad computacional implica la gobernabilidad del desarrollo y despliegue de sistemas de IA. Esto se debe a que, en comparación con los datos y los algoritmos, el cálculo es un aspecto observable y medible del entrenamiento de la IA que puede restringirse a través de la naturaleza física del hardware de cómputo.
La demanda de capacidad de cómputo utilizado para entrenar e implementar un modelo de IA a gran escala generalmente se produce mediante miles de unidades de procesamiento gráfico (GPU) y otros chips aceleradores de IA, que se alojan dentro de grandes Centros de Datos que consumen cientos de megavatios.
Los reguladores podrían, por ejemplo, implementar controles de cumplimiento legal en el punto en el que los algoritmos y los datos llegan a un Centro de Datos, con el fin de habilitar estándares de seguridad compartidos, mantenimiento de registros gubernamentales y la verificación de sistemas y desarrolladores de IA, o para hacer cumplir restricciones y limitaciones en sistemas no compatibles. En consecuencia, la gobernanza computacional podría potencialmente dar poder de negociación a los países o bloques de países que no tienen otros medios para hacer cumplir las regulaciones de IA en otras jurisdicciones nacionales.
Sin embargo, no todos los países son igualmente capaces de implementar la gobernanza a través de la computación. Los países que pueden ejercer jurisdicción territorial sobre infraestructuras computacionales físicas están en mejores condiciones para imponerles sus reglas que los Estados que no pueden.
Esto se debe a que, incluso si las leyes de un país están destinadas a cubrir el contenido de las infraestructuras computacionales ubicadas en el extranjero, la aplicación de esas leyes puede ser difícil y ser cuestionada por otros países.
Economías pequeñas o emergentes sólo podrán optar por adherirse a la gobernabilidad de IA de otras economías grandes en términos de capacidad de cómputo, datos y desarrollo de algoritmos.
Todo lo anterior representa una desviación significativa de la aplicación tradicional del Principio de Precaución, destacando los desafíos únicos que plantean las tecnologías avanzadas de IA.
Asimismo, NO puede existir enfoques de gobernabilidad en autarquía por países o de manera regional. No es consistente dos enfoques (estadounidense y europeo), así como un enfoque latinoamericano diferente de los anteriores, ya que los cambios tecnológicos son únicamente compatibles con el libre flujo de ideas entre latitudes y NO puede sujetarse a un entorno regulatorio donde las entidades se hayan diseñado para sólo las telecomunicaciones y los fenómenos de competencia entre los años noventa y los primeros tres lustros del presente siglo.
Si se requiere un nuevo marco institucional regulatorio deberá provenir de una entidad de competencia y regulación digital unificado, antes que desaparecerlos y mantenerlos separados.
_____
1. Walters, David C. “Complex System Governance Leadership” (2022). Doctor of Philosophy (PhD), Dissertation, Engineering Management & Systems Engineering, Old Dominion University, DOI: 10.25777/ vqcc-pb91.
2. Howell, B., “The Precautionary Principle, Safety Regulation, and IA: This time, it really is different”, AEI (September 2024).
3. Heim, L., Fist, T., Egan, J., Huang, S., Zekany, S., Trager, R., Osborne, M. A., and Zilberman, N. 2024. “Governing Through the Cloud: The Intermediary Role of Compute Providers in AI Regulation”, arXiv.2403.08501.