Regulação de plataformas digitais: o que o Brasil pode aprender da lei europeia

Não é novidade que o Brasil busca uma regulação para as big techs. O tema que é discutido pelo menos desde 2020 com o Projeto de Lei das Fake News (PL 2.630/2020) ganhou uma nova importância após os ataques de 8 de janeiro. Também não é uma surpresa que o país busca se inspirar na Lei de Serviços Digitais (DSA, na sigla em inglês) da Europa. A equipe de transição, por exemplo, já citava o ato europeu como um modelo a ser seguido.

Segundo João Victor Archegas, pesquisador de Direito e Tecnologia do ITS Rio, a regulação europeia é abrangente e toca em todos os aspectos de plataformas digitais, por isso serve de inspiração para o Brasil.

A DPL News fez uma comparação entre a DSA e as propostas brasileiras – o substitutivo do deputado Orlando Silva (PCdoB) apresentado no ano passado e a sugestão do Executivo deste ano –, com o objetivo de entender o que pode servir de modelo para o Brasil.

DSA

A DSA faz uma diferenciação entre as regras que se aplicam a serviços que oferecem infraestrutura de rede; serviços de hospedagem, como em Nuvem e web; plataformas como marketplace e de economia colaborativa; e plataformas online de grande porte, usadas por pelo menos 10% dos 450 milhões de usuários europeus. Aqui se encaixam as big techs.

Algumas regras são comuns a empresas de todos os tipos, como apresentação de relatórios de transparência; proteção aos direitos fundamentais dos consumidores; e a cooperação com autoridades para a execução de ordens.

Mas o documento ainda prevê, principalmente para as big techs:

  • obrigações de notificação e ação, para moderação de conteúdo;
  • mecanismos de recurso para os usuários;
  • proibição de publicidade para crianças;
  • transparência no sistema de recomendação (algoritmos).

Como a DSA impacta as big techs?

Na prática, as gigantes de tecnologia terão que deletar conteúdos ilegais, como discurso de ódio, desinformação e venda de produtos falsos, para não serem responsabilizadas, além de identificação de publicidade para os usuários.

Archegas vê esse mecanismo de “notificação e ação” como negativo. “O usuário pode notificar a plataforma e, a partir do momento que a plataforma é notificada sobre aquele conteúdo ilegal, ela deve tomar as ações cabíveis para indisponibilizar aquele conteúdo. Se não o fizer, ela pode ser responsabilizada”, disse o especialista.

Para ele, isso incentiva as plataformas a remover cada vez mais conteúdo para evitar a responsabilização e coloca a plataforma na posição de aplicadora da legislação.

Um ponto positivo da DSA é a corregulação, que coloca o Estado ao lado das plataformas para pensar em soluções para desafios como desinformação e discurso de ódio. “Estabelece a criação de uma autoridade independente que vai olhar para os relatórios de transparência para identificar eventuais riscos sistêmicos e propor soluções e mudanças no sistema”, afirmou.

O pesquisador acrescentou que as big techs receberam de forma positiva a regulação – com exceção de alguns pontos, como o “notificação e ação” – pois a DSA foi construída em conjunto com as empresas e traz maior previsibilidade às suas atividades.

PL das Fake News

Proposta do Legislativo

O substitutivo do PL das Fake News apresentado pelo deputado Orlando Silva no ano passado dedicava boa parte do documento à obrigação das empresas de apresentarem relatórios de transparência.

Também se preocupava em limitar e identificar o disparo de mensagens em massa, porque o impulsionamento de fake news por aplicativos de mensagens foi uma ameaça às eleições mais recentes. E, para as pessoas que impulsionam essas ações, o texto previa sanção criminal.

Ainda vale a pena destacar a remuneração por conteúdos jornalísticos e a autorregulação regulada, que consiste na criação de uma entidade pelos próprios provedores para receber denúncias sobre conteúdos ou contas. E a proposta não indicava a proibição de publicidade para crianças.

Relacionado: PL das Fake News ameaça Internet livre, segundo plataformas digitais

Proposta do Executivo

No final de março, o poder Executivo enviou um novo texto da PL das Fake News ao Congresso Nacional para discussão. A grande novidade é o dever de cuidado das plataformas relacionado ao conteúdo de terceiros, semelhante ao mecanismo de notificação e ação da DSA.

As empresas devem atuar em prazo hábil para aprimorar o combate a conteúdos ilegais, como crimes contra o Estado Democrático de Direito e crimes de terrorismo. Caso contrário, as plataformas serão responsabilizadas civilmente pelos danos decorrentes de conteúdo de terceiros.

A atenção a este ponto fica mais clara depois dos ataques antidemocráticos de 8 de janeiro, que foram convocados por meio de redes sociais e aplicativos de mensagens.

O mecanismo de corregulação, inspirado pela DSA, também entrou em pauta por meio de uma entidade autônoma de supervisão para avaliar os relatórios de transparência e o cumprimento do dever de cuidado. Apesar disso, ainda não está claro qual seria a configuração desse grupo.

A proposta ainda determina que as plataformas de grande porte devem abrir a descrição geral dos algoritmos. E, para os streamings, proíbe aumentar ou reduzir de forma artificial a frequência de obras específicas para privilegiar a recomendação de empresas do mesmo grupo econômico.

A remuneração por conteúdos e a autorregulação regulada se mantiveram, mas o texto não prevê mais a responsabilização criminal dos usuários pelo impulsionamento de desinformação, e proíbe a criação de perfis comportamentais de crianças e adolescentes para direcionamento de publicidade.

Ambas as versões do PL incluem o dever do Estado de garantir a educação midiática, para o uso seguro das aplicações da Internet, e o interesse público dos perfis de pessoas da Administração Pública em mandatos vigentes, impedindo a restrição de visualização das publicações.

Próximos passos

Vale destacar que existem outras iniciativas para a regulação de plataformas digitais no governo. O Comitê Gestor da Internet (CGI.br), por exemplo, vai abrir uma consulta pública no dia 25 de abril para propor diretrizes ao Estado sobre o objeto da regulação e mapear os riscos. 

E, na semana passada, o Supremo Tribunal Federal promoveu uma audiência pública sobre o Marco Civil da Internet. O artigo 19 da lei determina que o provedor de aplicações de Internet só pode ser responsabilizado civilmente por danos de conteúdo de terceiros se, após ordem judicial, não tomar as providências para remover o conteúdo. O que contraria a proposta do Executivo para o PL das Fake News.

É um tema urgente e complexo que depende do amadurecimento das propostas antes de se tornar definitivo.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies