Não é novidade que o Brasil busca uma regulação para as big techs. O tema que é discutido pelo menos desde 2020 com o Projeto de Lei das Fake News (PL 2.630/2020) ganhou uma nova importância após os ataques de 8 de janeiro. Também não é uma surpresa que o país busca se inspirar na Lei de Serviços Digitais (DSA, na sigla em inglês) da Europa. A equipe de transição, por exemplo, já citava o ato europeu como um modelo a ser seguido.
Segundo João Victor Archegas, pesquisador de Direito e Tecnologia do ITS Rio, a regulação europeia é abrangente e toca em todos os aspectos de plataformas digitais, por isso serve de inspiração para o Brasil.
A DPL News fez uma comparação entre a DSA e as propostas brasileiras – o substitutivo do deputado Orlando Silva (PCdoB) apresentado no ano passado e a sugestão do Executivo deste ano –, com o objetivo de entender o que pode servir de modelo para o Brasil.
DSA
A DSA faz uma diferenciação entre as regras que se aplicam a serviços que oferecem infraestrutura de rede; serviços de hospedagem, como em Nuvem e web; plataformas como marketplace e de economia colaborativa; e plataformas online de grande porte, usadas por pelo menos 10% dos 450 milhões de usuários europeus. Aqui se encaixam as big techs.
Algumas regras são comuns a empresas de todos os tipos, como apresentação de relatórios de transparência; proteção aos direitos fundamentais dos consumidores; e a cooperação com autoridades para a execução de ordens.
Mas o documento ainda prevê, principalmente para as big techs:
- obrigações de notificação e ação, para moderação de conteúdo;
- mecanismos de recurso para os usuários;
- proibição de publicidade para crianças;
- transparência no sistema de recomendação (algoritmos).
Como a DSA impacta as big techs?
Na prática, as gigantes de tecnologia terão que deletar conteúdos ilegais, como discurso de ódio, desinformação e venda de produtos falsos, para não serem responsabilizadas, além de identificação de publicidade para os usuários.
Archegas vê esse mecanismo de “notificação e ação” como negativo. “O usuário pode notificar a plataforma e, a partir do momento que a plataforma é notificada sobre aquele conteúdo ilegal, ela deve tomar as ações cabíveis para indisponibilizar aquele conteúdo. Se não o fizer, ela pode ser responsabilizada”, disse o especialista.
Para ele, isso incentiva as plataformas a remover cada vez mais conteúdo para evitar a responsabilização e coloca a plataforma na posição de aplicadora da legislação.
Um ponto positivo da DSA é a corregulação, que coloca o Estado ao lado das plataformas para pensar em soluções para desafios como desinformação e discurso de ódio. “Estabelece a criação de uma autoridade independente que vai olhar para os relatórios de transparência para identificar eventuais riscos sistêmicos e propor soluções e mudanças no sistema”, afirmou.
O pesquisador acrescentou que as big techs receberam de forma positiva a regulação – com exceção de alguns pontos, como o “notificação e ação” – pois a DSA foi construída em conjunto com as empresas e traz maior previsibilidade às suas atividades.
PL das Fake News
Proposta do Legislativo
O substitutivo do PL das Fake News apresentado pelo deputado Orlando Silva no ano passado dedicava boa parte do documento à obrigação das empresas de apresentarem relatórios de transparência.
Também se preocupava em limitar e identificar o disparo de mensagens em massa, porque o impulsionamento de fake news por aplicativos de mensagens foi uma ameaça às eleições mais recentes. E, para as pessoas que impulsionam essas ações, o texto previa sanção criminal.
Ainda vale a pena destacar a remuneração por conteúdos jornalísticos e a autorregulação regulada, que consiste na criação de uma entidade pelos próprios provedores para receber denúncias sobre conteúdos ou contas. E a proposta não indicava a proibição de publicidade para crianças.
Relacionado: PL das Fake News ameaça Internet livre, segundo plataformas digitais
Proposta do Executivo
No final de março, o poder Executivo enviou um novo texto da PL das Fake News ao Congresso Nacional para discussão. A grande novidade é o dever de cuidado das plataformas relacionado ao conteúdo de terceiros, semelhante ao mecanismo de notificação e ação da DSA.
As empresas devem atuar em prazo hábil para aprimorar o combate a conteúdos ilegais, como crimes contra o Estado Democrático de Direito e crimes de terrorismo. Caso contrário, as plataformas serão responsabilizadas civilmente pelos danos decorrentes de conteúdo de terceiros.
A atenção a este ponto fica mais clara depois dos ataques antidemocráticos de 8 de janeiro, que foram convocados por meio de redes sociais e aplicativos de mensagens.
O mecanismo de corregulação, inspirado pela DSA, também entrou em pauta por meio de uma entidade autônoma de supervisão para avaliar os relatórios de transparência e o cumprimento do dever de cuidado. Apesar disso, ainda não está claro qual seria a configuração desse grupo.
A proposta ainda determina que as plataformas de grande porte devem abrir a descrição geral dos algoritmos. E, para os streamings, proíbe aumentar ou reduzir de forma artificial a frequência de obras específicas para privilegiar a recomendação de empresas do mesmo grupo econômico.
A remuneração por conteúdos e a autorregulação regulada se mantiveram, mas o texto não prevê mais a responsabilização criminal dos usuários pelo impulsionamento de desinformação, e proíbe a criação de perfis comportamentais de crianças e adolescentes para direcionamento de publicidade.
Ambas as versões do PL incluem o dever do Estado de garantir a educação midiática, para o uso seguro das aplicações da Internet, e o interesse público dos perfis de pessoas da Administração Pública em mandatos vigentes, impedindo a restrição de visualização das publicações.
Próximos passos
Vale destacar que existem outras iniciativas para a regulação de plataformas digitais no governo. O Comitê Gestor da Internet (CGI.br), por exemplo, vai abrir uma consulta pública no dia 25 de abril para propor diretrizes ao Estado sobre o objeto da regulação e mapear os riscos.
E, na semana passada, o Supremo Tribunal Federal promoveu uma audiência pública sobre o Marco Civil da Internet. O artigo 19 da lei determina que o provedor de aplicações de Internet só pode ser responsabilizado civilmente por danos de conteúdo de terceiros se, após ordem judicial, não tomar as providências para remover o conteúdo. O que contraria a proposta do Executivo para o PL das Fake News.
É um tema urgente e complexo que depende do amadurecimento das propostas antes de se tornar definitivo.