ALAI y Canieti hacen un llamado al diálogo sobre las reformas propuestas a la Ley del Derecho de Autor en la era de la IA

La Asociación Latinoamericana de Internet (ALAI) y la Cámara Nacional de la Industria Electrónica, de Telecomunicaciones y Tecnologías de la Información (CANIETI) emitieron un documento conjunto en el que solicitan la apertura al diálogo para poder atender los posibles riesgos de las reformas propuestas a la Ley Federal de Derechos de Autor en México, en particular en lo que respecta a los derechos de los artistas y su impacto en la innovación digital y el desarrollo de la Inteligencia Artificial (IA).

La presidenta de México, Claudia Sheinbaum, presentó en febrero de 2026 iniciativas de reforma a la Ley Federal del Derecho de Autor y la Ley Federal del Trabajo para proteger a actores y actrices de doblaje frente al uso no autorizado de su voz e imagen mediante IA. Las reformas reconocen la voz humana como una herramienta artística única, exigiendo consentimiento expreso, contratos claros y remuneración justa.

Ante esta propuesta, las organizaciones de la industria consideran que implica diversos riesgos, desde afectar el correcto desarrollo de la tecnología hasta desalentar por completo su uso y la innovación en productos y servicios.

En primer lugar, advierte que mientras las reformas exigirán un consentimiento explícito y específico para cualquier uso de la imagen o la voz de un artista, la redacción de la ley podría impactar incluso tecnologías de IA futuras o desconocidas, obstaculizando la innovación debido a la incertidumbre jurídica.

Por otro lado, advierte que el término “publicar”, en el Artículo 87, está definido de forma imprecisa, lo que podría extralimitarse y penalizar usos digitales menores o incidentales, por lo que se requieren límites legales más claros.

En tercer lugar, señala que la presunción de que el consentimiento pagado sólo se aplica a los usos explícitamente acordados puede generar un aumento de disputas y solicitudes de retiro, lo que afecta de forma desproporcionada a la publicidad digital y viola la neutralidad tecnológica.

“Para no frenar la innovación, la Ley debería distinguir entre el usuario infractor y el proveedor de la herramienta; la responsabilidad de las plataformas debe ser subjetiva y no automática, ya que imponer una vigilancia técnica permanente es una carga imposible que atenta contra el ecosistema y el propio desarrollo de la Inteligencia Artificial”, explica.

Las asociaciones también advierten que el Artículo 102 podría despojar de protección legal a los programas de IA si los usuarios llegaran a usar estas aplicaciones para violar derechos de terceros, lo que desalienta el desarrollo de IA de código abierto y supone una carga excesiva para los desarrolladores.

Finalmente, indica que las plataformas y los desarrolladores de IA ya regulan usos legales como la parodia y la sátira, por lo que la legislación debe respetar estos marcos existentes para preservar la libertad de expresión y la creatividad.