España lanza guía para un uso ético y responsable de la Inteligencia Artificial

Generar ecosistema para un desarrollo sin contraindicaciones del concepto Inteligencia Artificial (IA) parece el espíritu de la guía de buenas prácticas en la materia que acaba de ser lanzado en España. Participaron de su confección el Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) y PwC en colaboración con Google, Telefónica, Microsoft e IBM.

El documento de 231 páginas ofrece definiciones, habla de principios éticos y preceptos normativos y recopila conclusiones de otros estudios sobre el tema. Su presentación fue apoyada por la propia Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, quien hace algunos días había confirmado que el país será “el primero en contar con una agencia de supervisión de IA”.

Una primera definición que replica el informe es que Inteligencia Artificial son “aquellos sistemas que manifiestan su comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción –con cierto grado de autonomía– con el fin de alcanzar objetivos específicos”. Luego menciona que, junto con los beneficios, se presentan serios desafíos en aspectos tales como privacidad, transparencia o rendición de cuentas.

Relacionado: Chile presenta 28 objetivos para aprovechar los beneficios de la Inteligencia Artificial

El estudio reconoce a la Inteligencia Artificial ética “cuando su uso no tiene impactos negativos, sociales y éticos. No es la tecnología per se que es ética o no, sino el uso que hagamos de ella”. Refiere como relevante que la Carta de Derechos Digitales en España haya comtemplado a la IA y repite a cada rato la importancia de que los actores implicados trabajen en la búsqueda conjunta de soluciones “beneficiosas para la población y el planeta”.

5 buenas prácticas en Inteligencia Artificial

Las conclusiones, que se presentan casi a modo de sugerencia y como manual de buenas prácticas, están dispersas en distintos apartados y análisis, pero podrían resumirse en estas cinco ideas:

  1. Las normativas en relación con la privacidad y el gobierno del dato tienen un papel importante en el desarrollo y crecimiento de soluciones basadas en Inteligencia Artificial, pero resulta poco probable que dicha normativa presente un remedio completo a los daños derivados de un mal uso de soluciones de Inteligencia Artificial.
  2. Las soluciones de IA deben ser robustas y seguras durante todo su ciclo de vida, tanto respecto a la prevención del daño del propio funcionamiento interno del sistema y de la falta de su precisión, como respecto a potenciales ataques y vulnerabilidades externas. Además, debe evitarse que las soluciones sean entrenadas con datos no representativos, defectuosos y sesgados.
  3. Deben crearse sistemas de registro que garanticen la trazabilidad desde el diseño y durante el funcionamiento de la solución, permitiendo la delimitación de responsabilidades entre los distintos actores intervinientes –aquí mencionan a desarrolladores, operadores, propietarios y usuarios. También deben ponerse en marcha sistemas eficaces de mitigación de daños.
  4. El principio de transparencia y explicabilidad es la base sobre la que se construye la confianza en la Inteligencia Artificial. El avance tecnológico es inevitable y la normalización de este principio en relación con las soluciones de IA se espera que también lo sea, quizá en un principio impulsado por normas que obliguen a ello, pero, en cualquier caso, se acabará imponiendo por ser la única vía admisible para que la IA siga cumpliendo su función bajo el control informado del ser humano.
  5. La sostenibilidad y la responsabilidad ecológica debe fomentarse y se debe impulsar la investigación para promover el desarrollo sostenible como base necesaria para la Inteligencia Artificial ética.

El informe fue elaborado por un equipo multidisciplinario de 30 profesionales entre tecnólogos, juristas y expertos, y contempla el análisis de 27 iniciativas de todo el mundo. Como antecedente, menciona la publicación de la Estrategia Nacional de Inteligencia Artificial, en diciembre de 2020, y el informe sobre ética IA presentado por Unesco el año pasado, meses después de que la Comisión Europea presentara su propuesta para un marco regulatorio de la Unión Europea sobre el uso de la Inteligencia Artificial.