Llaman a mitigar riesgo potencial de ‘extinción’ de la IA como las pandemias y la guerra nuclear

El CEO de OpenAI, Sam Altman, y otros expertos y científicos de Inteligencia Artificial han hecho un llamado mundial para mitigar el riesgo potencial de la IA, el cual consideran que podría ser tan nocivo como otras hecatombes sociales, de la magnitud de una pandemia o una guerra nuclear, e incluso conducir a la ‘extinción’.

Así lo dieron a conocer a través de una carta pública, difundida a través del Centro para la Seguridad de la Inteligencia Artificial (Center for AI Safety).

Mitigar el riesgo de la extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear“, reza la sucinta declaración, que, según los firmantes, tiene como objetivo “superar este obstáculo y abrir la discusión”.

También busca “crear un conocimiento común del creciente número de expertos y figuras públicas que también toman en serio algunos de los riesgos más graves de la IA avanzada”.

Esta no es la primera vez que un grupo de actores relevantes de la escena de IA, mayoritariamente estadounidenses, publican una carta de advertencia sobre los riesgos potenciales.

Te puede interesar: La recomendación de la OMS sobre el uso de IA como ChatGPT y Bard en la salud

A fines de marzo, un grupo de personalidades de la industria tecnológica, encabezados por el cofundador de OpenAI, Tesla y SpaceX, Elon Musk; el cofundador de Apple, Steve Wozniak, y el escritor superventas Yuval Noah Arari, pidieron parar durante seis meses la investigación y el desarrollo de modelos de Inteligencia Artificial, en lo que se verificaba cuáles son sus riesgos potenciales para la sociedad.

En abril, el presidente de Estados Unidos, Joe Biden, respondió ante la pregunta de un reportero en conferencia de prensa que ‘aún está por verse’ si la Inteligencia Artificial es peligrosa.

Mientras que el propio Altman, quien dirige la organización que desarrolló el modelo de IA Generativa ChatGPT, se ha reunido en la Casa Blanca con Biden y representantes de otras empresas tecnológicas líderes en IA, como Google, para debatir cuál es la mejor forma de regularla para evitar que tenga efectos nocivos.

En los últimos meses, expertos en IA, periodistas, legisladores y el público en general han comenzado a discutir cada vez con mayor intensidad los riesgos importantes y urgentes de la IA.

Los expertos firmantes concluyeron que, pese a esto, puede ser difícil expresar inquietudes sobre algunos de los riesgos más graves de la IA avanzada.