Marco Civil da Internet: STF pode mudar regras de responsabilização das redes sociais, veja

Nesta quarta-feira, 11, o Supremo Tribunal Federal (STF) iniciou o julgamento de responsabilização das plataformas digitais por conteúdos ofensivos ou criminosos publicados por usuários, caso não sejam removidos após uma ordem judicial. O julgamento tem como base o artigo 19 do Marco Civil da Internet, que trata diretamente sobre o tema. Já são dois votos a favor da responsabilização.

O julgamento foi interrompido por um pedido de vista do presidente do STF, Luís Roberto Barroso. O magistrado pretende retomar a discussão em 18 de dezembro, mas o relator Dias Toffoli já indicou que o caso não será finalizado este ano. 

Durante a sessão, o ministro Luiz Fux argumentou que o artigo 19 cria uma “insuficiência inconstitucional” ao limitar a responsabilização das plataformas apenas ao descumprimento de ordens judiciais. Ele defendeu que, ao serem notificadas, as plataformas devem agir imediatamente para remover o conteúdo e, caso queiram restabelecê-lo, buscar autorização judicial. Essa posição sugere uma mudança ao atual modelo, o qual a retirada de conteúdo depende primeiro de decisão judicial.

Em seu voto, o ministro Dias Toffoli, defendeu a ampliação da regra de notificação extrajudicial, hoje válida para conteúdos com imagens íntimas, para abarcar também outros tipos de conteúdos ofensivos ou ilícitos. 

Leia também: Anatel, MCom e operadoras sugerem repensar regulação digital para equilíbrio entre big techs

Em casos graves, como crimes contra o Estado Democrático de Direito, racismo, violência contra crianças ou mulheres e desinformação com impactos sociais severos, Toffoli propôs que as plataformas tenham a obrigação de agir sem necessidade de notificação prévia. Caso não cumpram, estariam sujeitas à responsabilização objetiva, ou seja, seriam automaticamente responsabilizadas pelos danos.

Definição de Responsabilidade

O ministro Luiz Fux propõe que as plataformas sejam obrigadas a remover imediatamente conteúdos notificados extrajudicialmente, colocando sobre elas o ônus de buscar autorização judicial caso desejem restabelecer o material.

Ele também destacou que o impulsionamento de conteúdo — quando há pagamento para aumentar a visibilidade de postagens — torna as plataformas automaticamente responsáveis por danos causados pelo conteúdo impulsionado, dado que estão lucrando diretamente com ele.

Teses Propostas por Fux

Responsabilidade civil em casos de ciência inequívoca: As plataformas seriam responsabilizadas caso não removam conteúdos manifestamente ilícitos ou após serem informadas de sua ilicitude.

Monitoramento ativo: Em situações como discurso de ódio, racismo, pedofilia, e crimes contra o Estado Democrático de Direito, as plataformas deveriam monitorar ativamente os conteúdos e removê-los sem esperar notificações.

Facilidade de notificação: Para postagens ofensivas à honra, imagem e privacidade, Fux propõe que as plataformas disponibilizem meios eletrônicos acessíveis para que usuários possam notificar problemas.

Presunção de ciência nos casos de impulsionamento: Quando o conteúdo for pago para ser promovido, presume-se que a plataforma sabia de sua existência e ilicitude.

A discussão ganha relevância porque, além de poder redefinir as responsabilidades das redes sociais no Brasil em relação aos conteúdos postados, perpassa questões como liberdade de expressão, direitos das vítimas, combate à desinformação e segurança digital. 

Além disso, o julgamento terá impacto em pelo menos 345 processos judiciais aguardando decisão sobre o tema no Brasil, com potencial para estabelecer uma nova tese que orientará futuras decisões jurídicas sobre a responsabilidade das plataformas.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies