4 etapas para el desarrollo de una Inteligencia Artificial ética, según AIMX

Barcelona.- Para garantizar que la Inteligencia Artificial (IA) se utilice de manera ética y responsable en todos los ámbitos de la sociedad, es necesaria la cooperación internacional, señaló Pablo Corona, presidente de la Asociación de Internet MX (AIMX), en conversación con DPL News en el marco del Mobile World Congress (MWC).

El ingeniero destaca cuatro etapas en el camino hacia una IA ética. La primera consiste en identificar y evaluar los riesgos asociados con su desarrollo. Dado que “los seres humanos tienen diferentes intenciones, culturas y usos de la IA, se requiere considerar una amplia gama de escenarios posibles para garantizar que se minimicen los riesgos y se maximicen los beneficios”, afirmó.

En segundo lugar, se requiere monitoreo y control a medida que esta tecnología se integra en diversos aspectos de nuestras vidas. “Es fundamental que los seres humanos mantengan el control y la responsabilidad sobre sus decisiones y acciones. La IA ética no puede tomar decisiones por sí sola; siempre debe haber un humano que supervise y asuma la responsabilidad final”, aseveró Corona.

Relacionado: Qué dice la Declaración para promover una Inteligencia Artificial ética en América Latina y el Caribe

La tercera etapa consiste en preparar la IA para entender y respetar los valores de cada sociedad, lo que le permite adaptarse a las diferentes culturas y contextos en los que opera. Esto requiere un entrenamiento de datos cuidadoso y una consideración meticulosa de cómo se utilizan y aplican esos datos en la toma de decisiones.

La última etapa es establecer regulaciones claras para asegurar que la IA cumpla con los estándares éticos. Así, es posible someter a la tecnología a un escrutinio constante que permita corregir posibles errores.

Para el presidente de la Asociación de Internet MX, lograr cumplir estas fases depende en gran medida de estrategias de cooperación internacional para evitar una regulación fragmentada o inconsistente.

Lee también: La Unesco alerta sobre tendencias sexistas de la Inteligencia Artificial

“La regulación no debería ser única. No puede ser muy restrictiva en un lugar e inexistente en otro porque puede ser explotada por aquellos con intenciones maliciosas. Sólo mediante una colaboración global podemos asegurar que la IA se utilice para el bien común y se respeten nuestros valores éticos fundamentales”, dijo Corona.

Sesgos algorítmicos en la Inteligencia Artificial

Entre los desafíos que enfrenta la sociedad para la construcción de una IA ética se encuentran los sesgos algorítmicos, que pueden perpetuar y amplificar las desigualdades existentes.

Para combatirlos, “es crucial identificar y abordar los sesgos tanto en los datos como en los algoritmos. Esto puede implicar el uso de datos sintéticos para equilibrar representaciones insuficientes y fomentar la pluralidad de fuentes de información”, aseguró el ejecutivo.

Además, hay que “establecer qué usos de la IA son inaceptables, especialmente aquellos que puedan poner en peligro vidas humanas o causar daño a grupos de personas determinados. Esto requerirá un diálogo global y un consenso sobre los límites éticos de la IA”, afirmó.