Con el objetivo de supervisar la aplicación del Código de conducta internacional para las organizaciones que desarrollan sistemas avanzados de Inteligencia Artificial (IA), la Organización para la Cooperación y el Desarrollo Económicos (OCDE) anunció una fase piloto en el que se pondrá a prueba un marco de presentación de informes entre las naciones y organizaciones participantes.
La OCDE explica que esta iniciativa, surgida a partir del Proceso de Hiroshima, pondrá a prueba un marco de presentación de informes destinado a recopilar información sobre cómo las organizaciones que desarrollan sistemas avanzados de IA se alinean con las acciones del Código de conducta.
El Proceso de Hiroshima es un acuerdo internacional que establece un código de conducta para las organizaciones que desarrollan sistemas avanzados de IA. Fue adoptado formalmente por los líderes del G7 en octubre de 2023, y se basa en la Declaración de los Ministros de Tecnología y Digital del G7 emitida en septiembre de 2023.
Tiene como objetivo gestionar la evolución de la IA de manera que proteja a las personas, a la sociedad y los “principios compartidos” democráticos y de estado de derecho. Se enfoca en mantener a la humanidad en el centro del desarrollo de la IA.
El Proceso integró también un marco de políticas compuesto por diversos componentes, como el informe de la OCDE hacia un entendimiento común sobre la IA Generativa, la Guía internacional de principios para todos los actores y organizaciones desarrollando sistemas avanzados de IA, el Código Internacional de Conducta, y la cooperación basada en proyectos en IA.
Según la OCDE, la fase piloto del marco de presentación de informes, disponible hasta el 6 de septiembre de 2024, marca un primer paso fundamental hacia el establecimiento de un mecanismo de seguimiento sólido del Código de Conducta, tal como lo solicitaron los líderes del G7.
La organización multilateral explica que el borrador del marco de presentación de informes se diseñó con el aporte de los principales desarrolladores de IA de los países del G7 y con el apoyo del G7 bajo la presidencia italiana. Incluye un conjunto de preguntas basadas en las 11 acciones del Código de Conducta.
Se espera que un marco de presentación de informes finalizado facilite la transparencia y la comparabilidad en torno a las medidas para mitigar los riesgos de los sistemas avanzados de IA y contribuirá a identificar y difundir las buenas prácticas.
En la prueba piloto podrán participar las organizaciones que desarrollan sistemas avanzados de IA. Las respuestas proporcionadas durante este periodo se utilizarán para refinar y mejorar el marco de presentación de informes, con el objetivo de lanzar una versión final a finales de este año.