miércoles, noviembre 30, 2022
HomeDPL NEWS5 principios éticos de la Inteligencia Artificial para América Latina

5 principios éticos de la Inteligencia Artificial para América Latina

La IA tiene el potencial de aportar riqueza a la economía de la región, pero antes se debe concientizar a los actores relacionados en su desarrollo sobre los riesgos y desafíos que conlleva la implementación de esta tecnología.

La Inteligencia Artificial (IA) no es una tecnología del futuro sino del presente que podemos encontrar actuando en casi todas las áreas de la vida humana moderna como en el transporte, la comunicación, la medicina, la educación, la ciencia, la economía, el derecho, el entretenimiento y más.

De acuerdo con un estudio realizado por el Banco Inter-Americano de Desarrollo y C Minds, se estima que la IA podría aportar hasta un 14 por ciento de riqueza adicional a las economías emergentes de América Latina.

Sin embargo, el avance de la IA y su estrecha relación en nuestras vidas plantea problemas éticos que van desde la desaparición de empleos tradicionales, la reproducción y reforzamiento de los sesgos existentes, brechas de desigualdad más profundas, prejuicios, estereotipos, daños físicos o psicológicos a los seres humanos y hasta la deshumanización de las relaciones en la sociedad.

Con el objetivo de informar y mitigar los posibles efectos negativos de esta tecnología, la organización de innovación CMinds, bajo la iniciativa EON Resilience Lab con apoyo de la empresa tecnológica Meta, publicaron una guía para concientizar a las empresas y emprendimientos de la región que desarrollan o implementan sistemas de Inteligencia Artificial.

Relacionado: Beneficios de la Inteligencia Artificial para niños y niñas

Esta guía recopila cinco principios éticos que deben aplicarse al ciclo de vida de un sistema de IA, tomando como referencia las tres construcciones globales más recientes desarrolladas por la Unesco, la Unión Europea, así como los principios adoptados por la OCDE. Estos son los principios:

  1. Seguridad y robustez: los sistemas de IA deben estar diseñados, desarrollados e implementados de manera segura para evitar vulnerabilidades. Para estar seguros de que se comportan de manera segura, incluso cuando sufren un ciberataque, será necesario adoptar estándares robustos y evaluaciones de desempeño periódicas.
  1. Equidad, inclusión y no discriminación: este principio supone asegurar que los actores de la IA deben desarrollar e implementar sus sistemas de forma que reduzca al mínimo los daños para el usuario y ciertos grupos de la sociedad con el fin de evitar reforzar o perpetuar los sesgos inadecuados basados en prejuicios.
  1. Privacidad: los actores que desarrollan sistemas de IA deben fomentar una cumpla no sólo con la protección de los datos personales y privacidad de las personas, sino también con un comportamiento responsable sobre el uso de los datos.
  1. Transparencia y explicabilidad: este principio tiene como objetivo informar y fomentar confianza a los usuarios finales para que comprendan el funcionamiento de la IA y los mecanismos de control disponibles que pueden usar. La explicabilidad consiste en exponer de forma sencilla los resultados y facilitar la información sobre los sistemas de IA para que sean entendibles por las personas.
  1. Responsabilidad y rendición de cuentas: los humanos tienen un rol fundamental en el desarrollo, implementación y uso de los sistemas de IA. Por ello son responsables de supervisar el correcto funcionamiento del sistema y deben rendir cuentas sobre ello, en especial si los derechos humanos o libertades fundamentales de los usuarios son afectadas. La mejor práctica para atender este principio es aplicar metodologías de evaluación de riesgos durante el ciclo de vida del sistema de IA y adoptar medidas para impedir o minimizar los posibles daños.

El documento señala que la adopción de estos principios es voluntaria y no deben interpretarse como normas obligatorias, más bien deben analizarse e implementarse en función de los casos de uso específicos, así como de su contexto.

No obstante, el uso y aplicación ética de la IA es una responsabilidad de las empresas que puede traer grandes beneficios a su negocio, como garantizar la sostenibilidad de la compañía, una ventaja competitiva y una puerta a nuevos mercados, además de un mejor posicionamiento para la obtención de financiamiento.

Valeria Romero
Valeria Romero
Valeria Romero es editora de contenidos multimedia especializada en temas tecnológicos y de cultura digital.

Publicidad

LEER DESPUÉS