El primer paso para combatir los peligros y prevenir los incidentes de los sistemas de Inteligencia Artificial (IA) es conceptualizarlos y entenderlos. No se puede mitigar aquello que no se tiene claro.
Por eso, la Organización para la Cooperación y el Desarrollo Económico (OCDE) se dio a la tarea de construir las definiciones relacionadas con los incidentes de IA y acaba de publicar un documento con sus avances.
Dichas definiciones sientan las bases para el desarrollo de un marco común de notificación de incidentes de Inteligencia Artificial, que permitirá identificar los tipos de daños que genera la IA y determinar cómo abordarlos.
Un evento en el que el desarrollo o uso de un sistema de IA resulta en un daño real para la humanidad se denomina incidente de Inteligencia Artificial, y un evento en el que el desarrollo o uso de un sistema de IA es potencialmente dañino se nombra como un peligro de IA, de acuerdo con la OCDE.
La organización detalla que un incidente de IA es un evento, circunstancia o serie de eventos en los que el desarrollo, uso o mal funcionamiento de uno o más sistemas de IA genera directa o indirectamente cualquiera de los siguientes daños:
- lesión o daño a la salud (física y mental) de una o más personas;
- interrupción de la gestión y operación de infraestructura crítica;
- violaciones de los derechos humanos o incumplimiento de obligaciones conforme a la ley aplicable destinadas a proteger derechos;
- daño a la propiedad, las comunidades o el medio ambiente.
Destacado: OpenAI advierte que superinteligencia podría llegar esta década; creará equipo para evitar riesgos
Los daños causados por la IA se pueden ver materializados en afectaciones a los procesos democráticos debido a la desinformación generada con IA; o en violaciones a los derechos humanos a través de la difusión de discursos de odio por medio de imágenes y contenidos producidos con IA.
Y en algunos casos, la OCDE advierte que el desarrollo de un sistema de IA puede causar daños incluso antes de que el sistema esté listo o sea ampliamente desplegado.
Por ejemplo, si se entrena un modelo de Inteligencia Artificial con información patentada se están infringiendo las leyes de derechos de autor.
La OCDE también explica que los incidentes de IA pueden tener dos subclasificaciones: los incidentes graves y los desastres de Inteligencia Artificial.
Un incidente de IA se considera grave cuando propicia directa o indirectamente cualquiera de los siguientes daños:
(a)1 la muerte de una persona o daños graves a la salud;
b) una perturbación grave e irreversible de la gestión y funcionamiento de infraestructuras críticas;
(c) una violación grave de los derechos humanos o un incumplimiento grave de las obligaciones derivadas de la legislación aplicable destinada a proteger los derechos fundamentales, laborales y de propiedad intelectual;
d) daños graves a los bienes, a las comunidades o al medio ambiente.
Y cuando un incidente de IA altera el funcionamiento de una comunidad o sociedad, e incluso supera su capacidad de enfrentarlo usando sus propios recursos, se habla de un desastre de IA.
Te recomendamos: Un año después de ChatGPT llega la ‘regulación’ de la Inteligencia Artificial
En tanto, un riesgo de IA es un evento, circunstancia o serie de eventos en los que el desarrollo, uso o mal funcionamiento de uno de ellos o más sistemas de IA podrían provocar un incidente de IA que acarree cualquiera de los daños ya mencionados.
A diferencia de los incidentes, los peligros de la IA aún están en una etapa más temprana para que exista una respuesta oportuna que ayude a eliminar los potenciales daños antes de que ocurran.
“Los sistemas de IA deben ser confiables para evitar efectos negativos en las personas, las organizaciones y el medio ambiente. Para lograr esto, los actores de la IA deben usar los mismos términos para hablar de los problemas y fallas”, advierte la OCDE.
El informe de la organización proporciona una propuesta para definir la terminología relacionada con incidentes de IA. Sin embargo, aún se debe desarrollar un marco común al respecto, que permita la interoperabilidad internacional debido a que los efectos de la IA trascienden jurisdicciones.