Unesco publica primer acuerdo de ética en Inteligencia Artificial

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) presentó la primera guía de ética a nivel internacional para el desarrollo de la Inteligencia Artificial (IA), que prohíbe el uso de la tecnología para aplicaciones como la “puntuación social” y la vigilancia masiva, con el objetivo de favorecer el desarrollo de soluciones que promuevan y protejan la “dignidad humana” y sirvan para ayudar al desarrollo de los usuarios.

La Directora General de la Unesco, Audrey Azoulay, presentó el primer conjunto de guías alrededor del desarrollo de la IA durante la Conferencia General.

“La IA tiene el potencial de beneficiar a las sociedades y economías de muchas formas, pero también presenta riesgos y desafíos”, dijo la Unesco en un comunicado de prensa. Según la organización, la guía representa una serie de “recomendaciones”, sin llegar a ser un acuerdo vinculante entre los 193 países miembros.

Cabe destacar que entre los países miembros se encuentra China, el cual ha sido acusado constantemente de utilizar tecnología de IA para algunas de las aplicaciones no recomendadas en la guía, tales como vigilancia masiva. Estados Unidos no forma parte actualmente de la Unesco, luego de que Donald Trump decidiera retirar al país en 2018.

El texto publicado recomienda a las empresas y desarrolladores la adopción de procesos de evaluación de impacto ético, mientras que a los gobiernos invita a implementar “fuertes mecanismos de aplicación y acciones correctivas” para proteger los derechos humanos. También insta a los gobiernos a dedicar fondos públicos para promover la diversidad en la tecnología, proteger a las comunidades indígenas y monitorear la huella de carbono de las tecnologías de IA.

“Las personas deben tener buenas razones para confiar en que los sistemas de IA pueden brindar beneficios individuales y compartidos, mientras se toman las medidas adecuadas para mitigar los riesgos. Un requisito esencial para la confiabilidad es que, a lo largo de su ciclo de vida, los sistemas de IA estén sujetos a un monitoreo exhaustivo por parte de las partes interesadas relevantes, según corresponda”, agrega.

La guía incluye valores y recomendaciones respecto al desarrollo de IA para la promoción y protección de los derechos humanos, la adopción de prácticas de sustentabilidad, asegurarse de que las soluciones cumplan respeten la diversidad y la inclusión, y permitan la creación de una sociedad justa.

“Siempre que no esté seguro de que el desarrollo de ciertas tecnologías va a tener un impacto negativo, pero asume que podrían, no lo haga. Es tan simple como eso”, indica la Subdirectora General de Ciencias Sociales y Humanas de la Unesco, Gabriela Ramos.

Respecto a la protección de datos, la recomendación señala que se requieren de mayores esfuerzos para garantizar la transparencia, la capacidad de actuar y el control de la población sobre sus datos personales.

La recomendación prohíbe explícitamente el uso de sistemas de IA para la calificación social y la vigilancia masiva, al considerar que son muy invasivas, vulneran los derechos humanos y las libertades fundamentales y se utilizan de forma generalizada.

El documento también sienta las bases de las herramientas que ayudarán a su aplicación. La Evaluación del Impacto Ético pretende ayudar a los países y a las empresas que desarrollan y despliegan sistemas de IA a evaluar el impacto de esos sistemas en las personas, la sociedad y el medio ambiente. La metodología de evaluación del grado de preparación ayuda a los Estados Miembros a evaluar su grado de preparación en términos de infraestructura jurídica y técnica.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies