Venezuela presenta Código de Ética para el desarrollo responsable de la IA

El Ministerio del Poder Popular para Ciencia y Tecnología (Mincyt) de Venezuela, a través de la Dirección General de Desarrollo y Aplicación de Inteligencia Artificial (DGDAIA), presentó oficialmente el Código de Ética para el Desarrollo y Aplicación Responsable de la Inteligencia Artificial (IA), un documento que fija la hoja de ruta para el uso, investigación y despliegue de sistemas de IA en el país.

Con base en experiencias internacionales, el texto establece 9 principios “fundamentales e ineludibles”. El primero es una IA humanista, que debe estar centrada en el ser humano y prevenir cualquier forma de daño.

Este principio incluye el respeto a la autonomía humana, la prevención del daño físico, mental o social, el respeto a los derechos humanos, la defensa de la democracia y el Estado de derecho, la contribución a la calidad de vida definida por las propias personas, y enfatiza que la IA no debe manipular, coaccionar ni imponer ideologías o estilos de vida.

El segundo principio es la Equidad, igualdad y no discriminación, centrado en que la IA debe ser justa e inclusiva, con especial protección a grupos vulnerables como mujeres, niños, adolescentes y minorías. Exige diversidad en equipos de desarrollo, perspectiva de género, la no homogeneización cultural, la no segmentación de la población en burbujas informativas y el fomento de sociedades pacíficas y justas.

Le sigue en tercer lugar la Responsabilidad ambiental, que ve a la IA como una herramienta que puede ayudar a enfrentar la crisis climática, pero que también genera impactos significativos.

El cuarto principio es la Seguridad, que se aborda en tres niveles: protección de datos, seguridad del modelo frente a manipulación y seguridad de la infraestructura física y digital.

El siguiente principio es la Privacidad, que se define como un derecho fundamental. Al respecto, el Código exige consentimiento informado, transparencia sobre el uso de datos, minimización de datos recolectados, derecho a acceso, rectificación, cancelación y oposición y la protección de datos estructurados y no estructurados, incluidos biométricos y médicos.

Recomendamos: Ecuador presenta su política pública para el desarrollo ético de la IA

El sexto principio establece que los sistemas de IA deben ser comprensibles, explicables y auditables. Se enfatiza la trazabilidad de decisiones, especialmente en sectores críticos como salud y justicia.

Además, se introduce la contraloría social como mecanismo para que la ciudadanía supervise y cuestione el funcionamiento de estos sistemas.

El Código también exige mecanismos claros para identificar y sancionar malas prácticas, y prohíbe que la IA sea utilizada para evadir responsabilidades.

Por otro lado, se inspira en la recomendación sobre Ciencia Abierta de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) para brindar acceso abierto al conocimiento, a través del código abierto y software libre, la colaboración global y la democratización tecnológica.

El noveno principio impulsa la investigación de vanguardia, la formación de talento humano y la colaboración entre academia, industria y gobierno. La excelencia se entiende como calidad científica, ética y compromiso con el desarrollo nacional.

El Código sostiene que estos nueve principios no son meras recomendaciones, sino imperativos prácticos que deben integrarse en cada etapa del desarrollo tecnológico. Su implementación busca alinear la IA con derechos humanos, equidad, transparencia, sostenibilidad y soberanía nacional.