Las nuevas responsabilidades de las plataformas tras fallo de la Corte de Brasil

En una decisión clave, el Supremo Tribunal Federal (STF) finalmente modificó la interpretación del artículo 19 del Marco Civil de Internet (Ley 12.965/2014), declarándolo parcialmente inconstitucional por 8 votos contra 3. Entre los votos de la mayoría, el ministro Luís Roberto Barroso, presidente de la Corte Suprema, propuso un modelo intermedio que equilibra la protección de los derechos fundamentales con la libertad de expresión.

Hasta entonces, la norma sólo permitía la responsabilidad civil de las plataformas tras el incumplimiento de una orden judicial específica. Sin embargo, el tribunal consideró que ese límite no ofrecía protección suficiente para los derechos fundamentales ni para la democracia.

El nuevo entendimiento establece que, hasta que el Congreso apruebe una legislación complementaria, el proveedor de aplicaciones de Internet podrá ser responsabilizado con base en el artículo 21, que permite la remoción de contenido tras una notificación extrajudicial. Esto se aplica a cualquier tipo de contenido ilícito, excepto en los casos de delitos contra el honor, como la calumnia, la difamación y la injuria, para los cuales sigue siendo necesaria una orden judicial.

En el caso de contenidos graves como racismo, terrorismo, incitación al suicidio, trata de personas y violencia contra la mujer, la Corte aclaró que ni siquiera será necesaria una notificación previa para que se configure la responsabilidad o se exija la remoción.

Barroso sostuvo que la inmunidad de las plataformas no debe extenderse a contenidos con carácter delictivo: afirmó que “no hay fundamento constitucional para un régimen que incentive a que las plataformas permanezcan inertes tras tomar conocimiento de claras violaciones a la ley penal”.

Según el ponente, el ministro Dias Toffoli, deben aplicarse medidas de “notice and takedown”, ya que las plataformas cuentan con tecnología y recursos suficientes para identificar y actuar ante este tipo de contenido.

En cuanto a los contenidos patrocinados o ampliamente impulsados por bots, prevalece la presunción de que las plataformas ya tenían conocimiento del material, lo que permite su responsabilización inmediata sin necesidad de notificación. El tribunal determinó que dichas empresas sólo podrán evitar la responsabilidad si demuestran que actuaron con diligencia y en un plazo razonable para eliminar el contenido.

La decisión también estableció que, en casos de fallas sistémicas, es decir, cuando la plataforma no adopta estándares técnicos eficaces de moderación, la inmunidad no se sostiene y la responsabilización será automática.

Servicios como WhatsApp y correo electrónico (comunicaciones privadas) seguirán requiriendo orden judicial para que se configure la responsabilidad. Los marketplaces seguirán siendo regidos por el Código de Defensa del Consumidor.

Además, se volvió obligatoria la presencia de una sede o representante legal de las plataformas en Brasil, así como la implementación de canales de denuncia accesibles y la publicación de informes de transparencia.

Los efectos de esta tesis sólo se aplican a casos futuros, preservando los procesos ya en curso o con sentencia firme. Por lo tanto, la Justicia podrá aplicar este nuevo criterio en demandas que ingresen a partir del 26 de junio de 2025.

Finalmente, el STF estructuró un nuevo régimen jurídico que concentra el deber de moderación en manos de las plataformas y redefine la inmunidad prevista anteriormente en el artículo 19, transformándola en una excepción solo para delitos contra el honor. Además, impone un estándar activo de análisis, remoción y responsabilidad, alineado con modelos internacionales como el europeo, con énfasis en la protección de los derechos fundamentales.