Em ato decisivo, o Supremo Tribunal Federal (STF) por fim decidiu por modificar o entendimento sobre o artigo 19 do Marco Civil da Internet (Lei 12.965/2014), declarando-o parcialmente inconstitucional por 8 votos a 3. Entre os votos da maioria, o ministro Luís Roberto Barroso, presidente da Suprema Corte, propôs um modelo intermediário que equilibra proteção a direitos fundamentais e liberdade de expressão.
Até então, a norma só permitia responsabilização civil das plataformas após o descumprimento de uma ordem judicial específica, mas a Corte entendeu que esse limite não oferece proteção suficiente para direitos fundamentais nem para a democracia.
O novo entendimento estabelece que, até que o Congresso aprove legislação complementar, o provedor de aplicações de internet poderá ser responsabilizado com base no artigo 21, que permite a retirada de conteúdo após notificação extrajudicial. Isso vale para qualquer tipo de conteúdo ilícito, exceto crimes contra a honra, como calúnia, difamação e injúria, para os quais permanece necessária uma ordem judicial.
No caso de conteúdos graves como racismo, terrorismo, incitação ao suicídio, tráfico de pessoas e violência contra mulheres, a Corte esclareceu que nem mesmo a notificação prévia será necessária para responsabilização ou remoção.
Barroso defendeu que a imunidade das plataformas não deve se estender a conteúdos com teor criminoso: ele afirmou que “não há fundamento constitucional para um regime que incentiva que as plataformas permaneçam inertes após tomarem conhecimento de claras violações da lei penal”
Segundo o relator, ministro Dias Toffoli, medidas de “notice and takedown” devem ser aplicadas já que as plataformas dispõem de tecnologia e recursos suficientes para identificar e agir sobre esse tipo de material.
Quanto a conteúdos patrocinados ou amplamente impulsionados por bots, prevalece a presunção de que as plataformas já estavam cientes do conteúdo, o que as torna passíveis de responsabilização imediata sem notificação. A Corte determinou que tais empresas só poderão evitar a responsabilização se provarem ter removido o conteúdo com diligência e em prazo razoável.
A decisão também fixou que, em casos de falha sistêmica, isto é, quando a plataforma não adota eficazes padrões técnicos de moderação, a imunidade não se sustenta, e a responsabilização será automática.
Serviços como WhatsApp e e‑mail (comunicações privadas) continuam exigindo ordem judicial para responsabilização. Marketplaces seguem sob o Código de Defesa do Consumidor
Além disso, tornou obrigatória a presença de sede ou representante legal das plataformas no Brasil, bem como a implementação de canais de denúncia acessíveis e a publicação de relatórios de transparência .
Os efeitos dessa tese têm alcance apenas sobre casos futuros, preservando processos já em curso ou com sentença transitada em julgado . A Justiça, portanto, já poderá aplicar esse critério nas ações que chegarem após 26 de junho de 2025.
Por fim, o STF estruturou um novo regime jurídico que concentra o dever de moderação nas mãos das plataformas e redefine a imunidade anterior do artigo 19, transformando-o em regra excepcional apenas para crimes contra a honra.
No mais, impõe um padrão ativo de análise, remoção e responsabilização, alinhado a modalidades internacionais como o modelo europeu e aprimorado com foco na proteção de direitos fundamentais.