Marisa Monte defiende derechos de autor en audiencia sobre el Marco de IA en Brasil
El último debate para ajustar la regulación de la Inteligencia Artificial (IA) en Brasil dividió opiniones entre Google y artistas.
En la última de las cinco audiencias públicas previas a la presentación al Pleno de la propuesta final de regulación de Inteligencia Artificial (IA) en Brasil, se escucharon las reivindicaciones de artistas y grandes tecnológicas como Google, con foco en los posibles conflictos entre la tecnología y los derechos de autor.
La cantante Marisa Monte defendió la necesidad de proteger los derechos de autor, sugiriendo mecanismos de transparencia, responsabilidad, remuneración y regulación sectorial. Su enfoque es proteger los derechos de diversos profesionales de la creación humana, incluidos escritores, ilustradores, directores, periodistas, fotógrafos, entre otros.
Por su parte, la representante de Google Brasil, Ana Cecília Oliveira, argumentó que la Inteligencia Artificial necesita libertad para aprender y adaptarse a las diversas culturas y regiones de Brasil. Se posicionó en contra de imponer obligaciones que dificulten el entrenamiento y la actualización de los modelos de IA, haciendo que sean más costosos.
Sin embargo, la propuesta de ley en discusión en Brasil exige que los desarrolladores de IA informen qué contenidos protegidos por derechos de autor se utilizaron en los procesos de entrenamiento y contempla la creación de un “entorno regulatorio experimental (sandbox)” para abordar la transparencia y la remuneración asociada al uso de estos contenidos.
Destacado: Camino al G20: gobernanza mundial de la IA y desarrollo de la economía digital del Sur Global
Para Google, hay otras prioridades en la regulación de la IA, que incluyen la gobernanza y la autorregulación. La empresa propone un modelo donde las contribuciones de los sectores prácticos se valoren junto con las motivaciones de la administración pública y los usuarios.
En cuanto a la clasificación de riesgos, Google pidió la revisión de la lista de sistemas de IA considerados de “alto riesgo” y los criterios para la evaluación del impacto algorítmico, argumentando que la definición actual es demasiado amplia y puede crear obstáculos innecesarios para el desarrollo tecnológico.
Finalmente, Google defendió que la responsabilidad por los daños causados por contenidos generados por terceros siga lo establecido en el Marco Civil de Internet, donde las plataformas digitales no son responsables sin una decisión judicial.