La evolución de la Inteligencia Artificial: ¿mercado o control y regulación?

La saga reciente en el gobierno corporativo de OpenAI (desarrollador de ChatGPT) ha puesto de manifiesto que tal crisis fue producto de dos visiones distintas de cómo deberían evolucionar las plataformas de Inteligencia Artificial: tensiones entre acelerar el progreso o proceder con cautela auto limitándose en su desarrollo futuro. 

Se citó en medios que el despido de Sam Altman como CEO de OpenAI tuvo como causas, desde una revuelta por el control de la empresa, hasta preocupaciones de que Altman estaba ignorando problemas de seguridad con el afán de avanzar rápidamente las capacidades de la IA, liberando su acceso al mercado. 

Este drama corporativo ha puesto de relevancia dos opciones de evolución para la IA diferentes entre sí:

1. Evolución controlada, restringida por preocupaciones catastrofistas y éticas, centradas en el principio precautorio sobre el alcance que pueda tener la comercialización de tales plataformas para su uso masivo por desarrolladores independientes y, por lo tanto, las modificaciones en capacidades que pueda llegar a tener. 

Por principio precautorio se entiende que frente a una actividad potencialmente peligrosa o cuyos efectos no se conocen completamente, es preferible evitarla en lugar de esperar a sus consecuencias. 

El principio precautorio es particularmente relevante en actividades donde hay gran incertidumbre científica y riesgos potenciales altos. De lo anterior se derivan las siguientes recomendaciones:

  • Adoptar medidas de protección antes de que se actualice un daño real, incluso si no hay certeza científica absoluta sobre ese daño.
  • Quien desarrolle la actividad debe demostrar que es segura. Aplica incluso en casos donde sólo hay sospechas (pero no pruebas definitivas) de posibles efectos o riesgos graves e irreversibles.
  • Las medidas de precaución deben ser proporcionales al nivel de amenaza y sólo revisarse a la luz de nuevas evidencias.

2. La visión alternativa sobre que el desarrollo en el mercado de las plataformas o códigos de Inteligencia Artificial no debe de ser frenada por temores infundados. 

El costo de cualquier nivel de control en su evolución es mayor que el beneficio y, por lo tanto, significa un alto costo social dado que los beneficios sociales se rezagan o no ocurren debido a riesgos percibidos y que son incluso inexistentes. 

El regreso de Sam Altman como CEO de OpenAI significa que esta visión fue la que resultó avante después de una semana de crisis corporativa en dicha empresa.  

Sin dejar de señalar que la decisión del CEO de Microsoft, Satya Nadella, de invertir en OpenAI en 2019 se ha convertido en una de las asociaciones más exitosas de la industria tecnológica, dando a la empresa de software una gran ventaja en el floreciente mercado de la tecnología de Inteligencia Artificial Generativa y que fue un factor mayor en el regreso de Altman.

La visión que ha terminado por ser la aparentemente dominante en OpenAI es sin duda la económicamente correcta, dado que los desafíos de regular las tecnologías de Inteligencia Artificial (IA) y Aprendizaje Automático (AA) argumentan que muchos de los actuales llamados a la regulación y al freno en su desarrollo se basan en suposiciones y en la creencia naïve que la regulación puede identificar los posibles daños que pudieran causar esta tecnología. 

Sin embargo, los reguladores necesitan abordar esta tarea con “humildad”, dadas las limitaciones inherentes de la regulación, las fallas humanas que resultan incluso peores que las fallas de la tecnología, y que las fallas de la tecnología resultan de las fallas humanas que son inherentes a las fallas regulatorias. 

A diferencia de Internet, que surge de la Red de Agencias de Proyectos de Investigación Avanzada (ARPANET), fue la propia red que evolucionó hasta convertirse en lo que ahora conocemos como Internet. 

En cambio, las actuales plataformas y códigos de IA no surgen de un proyecto gubernamental, pero su evolución puede ser semejante dado que el estado actual de Internet precisamente creció a lo que hoy existe porque salió al mercado, creció, evolucionó y catalizó los ecosistemas digitales del presente y del futuro.

Existen razones fundamentales por lo que la regulación de la IA/AA no es infalible y que la mejor opción es “observar al mercado” para esta dinámica industria. 

La regulación, en su típica arrogancia, enfrenta obstáculos, como ante cualquier industria con elevado nivel de cambio tecnológico:

  • No existe una definición precisa y aceptada, ni la comprensión total de lo que constituye la IA/AA, su significado sigue siendo esquivo incluso entre los desarrolladores de tales tecnologías.
  • El estado actual del conocimiento sobre las aplicaciones de IA/AA y sus posibles efectos en los diferentes sectores es limitado. Esto hace extremadamente difícil cuantificar riesgos o predecir resultados de intervenciones regulatorias.
  • La IA/AA representa un caso de “incertidumbre knightiana”, donde no se pueden asignar probabilidades a los resultados posibles. Esto hace que los enfoques regulatorios tradicionales “basados en el riesgo” sean inaplicables.
  • Existe una falta de reconocimiento entre todas las iniciativas reguladoras (en Estados Unidos y en Europa) sobre que no es posible conocer los efectos o impactos de la IA/AA. Esto conduce a una excesiva confianza en la capacidad de regular de manera eficiente o al mínimo costo (¿recuerdan la regulación en telecomunicaciones y sus inconsistencias con la convergencia digital?). Las iniciativas regulatorias a la fecha intentan transferir los costos de la incertidumbre a las empresas que invierten en la investigación y desarrollo (igual que en telecomunicaciones en su momento).

En el caso puntual de OpenAI, a medida que los servicios de IA generativa se vuelven cada vez más especializados para tareas específicas, con modelos de lenguaje orientados a industrias o sectores económicos particulares, es fundamental contar con el mayor ecosistema informático posible.

Por ello, Microsoft Research perdió frente a OpenAI y Google en la carrera por construir grandes modelos de lenguaje, pero está bien posicionada para desarrollar la próxima generación de SLM o pequeños modelos de lenguaje para usos específicos. 

Desarrollos como estos podrían reducir la dependencia de Microsoft de OpenAI en la siguiente fase de la IA Generativa pero es probable que ninguno sea al menos semejante al tipo de salto competitivo que surgió de su apuesta inicial por el grupo de investigación de IA de Altman en OpenAI.

En conclusión, gran parte de la regulación actual de la IA/AA se basa en el miedo y la incertidumbre en lugar de riesgos definidos. 

Los reguladores necesitan más humildad dada la magnitud de los factores desconocidos. Por ello, es necesario reflexionar sobre lo escrito por Marc Andreessen, un excelente posicionamiento sobre las virtudes y los miedos respecto al cambio tecnológico, en particular sobre IA, que afirma lo siguiente respecto de los temores y las esperanzas en la tecnología y que es indispensable considerar:

“Nos están mintiendo.

“Se nos dice que la tecnología nos quita el trabajo, reduce nuestros salarios, aumenta la desigualdad, amenaza nuestra salud, arruina el medio ambiente, degrada nuestra sociedad, corrompe a nuestros hijos, perjudica nuestra humanidad, amenaza nuestro futuro y está siempre a punto de arruinarlo todo.

“Se nos dice que estemos enojados, amargados y resentidos por la tecnología.

“Se nos dice que seamos pesimistas.

“El mito de Prometeo (en diversas formas actualizadas, como Frankenstein, Oppenheimer y Terminator) acecha nuestras pesadillas.

“Se nos dice que condenemos nuestra inteligencia, nuestro control sobre la naturaleza, nuestra capacidad de construir un mundo mejor.

“Los tecno-optimistas creen que las sociedades, como los tiburones, crecen o mueren.

“Creemos que el crecimiento es progreso, que conduce a la vitalidad, la expansión de la vida, el aumento del conocimiento y un mayor bienestar.

“Creemos que esta es la historia del desarrollo material de nuestra civilización; es por eso que todavía no vivimos en chozas de barro, sobreviviendo a duras penas y esperando que la naturaleza nos mate.

“Creemos que es por eso que nuestros descendientes vivirán en las estrellas.

“Creemos que no hay ningún problema material –ya sea creado por la naturaleza o por la tecnología– que no pueda resolverse con más tecnología.

“Teníamos un problema de hambre, así que inventamos la Revolución Verde.

“Teníamos un problema de oscuridad, así que inventamos la iluminación eléctrica.

“Teníamos un problema de frío, así que inventamos la calefacción interior.

“Teníamos un problema de calor, así que inventamos el aire acondicionado.

“Teníamos un problema de aislamiento, así que inventamos Internet.

“Teníamos un problema de pandemias, entonces inventamos las vacunas.

“Danos un problema del mundo real y podremos inventar tecnología que lo resolverá.”

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies