Nesta quarta-feira, 11, o Supremo Tribunal Federal (STF) iniciou o julgamento de responsabilização das plataformas digitais por conteúdos ofensivos ou criminosos publicados por usuários, caso não sejam removidos após uma ordem judicial. O julgamento tem como base o artigo 19 do Marco Civil da Internet, que trata diretamente sobre o tema. Já são dois votos a favor da responsabilização.
O julgamento foi interrompido por um pedido de vista do presidente do STF, Luís Roberto Barroso. O magistrado pretende retomar a discussão em 18 de dezembro, mas o relator Dias Toffoli já indicou que o caso não será finalizado este ano.
Durante a sessão, o ministro Luiz Fux argumentou que o artigo 19 cria uma “insuficiência inconstitucional” ao limitar a responsabilização das plataformas apenas ao descumprimento de ordens judiciais. Ele defendeu que, ao serem notificadas, as plataformas devem agir imediatamente para remover o conteúdo e, caso queiram restabelecê-lo, buscar autorização judicial. Essa posição sugere uma mudança ao atual modelo, o qual a retirada de conteúdo depende primeiro de decisão judicial.
Em seu voto, o ministro Dias Toffoli, defendeu a ampliação da regra de notificação extrajudicial, hoje válida para conteúdos com imagens íntimas, para abarcar também outros tipos de conteúdos ofensivos ou ilícitos.
Leia também: Anatel, MCom e operadoras sugerem repensar regulação digital para equilíbrio entre big techs
Em casos graves, como crimes contra o Estado Democrático de Direito, racismo, violência contra crianças ou mulheres e desinformação com impactos sociais severos, Toffoli propôs que as plataformas tenham a obrigação de agir sem necessidade de notificação prévia. Caso não cumpram, estariam sujeitas à responsabilização objetiva, ou seja, seriam automaticamente responsabilizadas pelos danos.
Definição de Responsabilidade
O ministro Luiz Fux propõe que as plataformas sejam obrigadas a remover imediatamente conteúdos notificados extrajudicialmente, colocando sobre elas o ônus de buscar autorização judicial caso desejem restabelecer o material.
Ele também destacou que o impulsionamento de conteúdo — quando há pagamento para aumentar a visibilidade de postagens — torna as plataformas automaticamente responsáveis por danos causados pelo conteúdo impulsionado, dado que estão lucrando diretamente com ele.
Teses Propostas por Fux
Responsabilidade civil em casos de ciência inequívoca: As plataformas seriam responsabilizadas caso não removam conteúdos manifestamente ilícitos ou após serem informadas de sua ilicitude.
Monitoramento ativo: Em situações como discurso de ódio, racismo, pedofilia, e crimes contra o Estado Democrático de Direito, as plataformas deveriam monitorar ativamente os conteúdos e removê-los sem esperar notificações.
Facilidade de notificação: Para postagens ofensivas à honra, imagem e privacidade, Fux propõe que as plataformas disponibilizem meios eletrônicos acessíveis para que usuários possam notificar problemas.
Presunção de ciência nos casos de impulsionamento: Quando o conteúdo for pago para ser promovido, presume-se que a plataforma sabia de sua existência e ilicitude.
A discussão ganha relevância porque, além de poder redefinir as responsabilidades das redes sociais no Brasil em relação aos conteúdos postados, perpassa questões como liberdade de expressão, direitos das vítimas, combate à desinformação e segurança digital.
Além disso, o julgamento terá impacto em pelo menos 345 processos judiciais aguardando decisão sobre o tema no Brasil, com potencial para estabelecer uma nova tese que orientará futuras decisões jurídicas sobre a responsabilidade das plataformas.