Segunda-feira, 6 de Abril de 2026

Estudo da Anatel e UnB aponta aspectos do poder social das plataformas digitais

A Agência Nacional de Telecomunicações (Anatel) divulgou nesta segunda-feira, 14, mais um capítulo dos estudos elaborados em parceria com a Universidade de Brasília (UnB) sobre os desafios regulatórios do ecossistema digital. Neste documento, o oitavo da pesquisa com a universidade, é analisado o poder social dos serviços digitais na sociedade.

O estudo publicado nesta segunda-feira aborda questões sobre a liberdade de expressão e os modelos regulatórios existentes para mitigar a circulação de desinformação. Foram analisadas o Digital Service Act (DSA), da Comunidade Europeia; o Online Safety Act (OSA), do Reino Unido, e a proposta apresentada no projeto de lei 2.630/2020, conhecido no Brasil como PL das Fake News.

Entre as conclusões apontadas pelo Centro de Políticas, Direito, Economia e Tecnologias das Comunicações (CCOM), da Unb, as três propostas possuem um ponto em comum: não dispor de mecanismos capazes de alterar o modelo de negócios, seja para inibir ou mesmo acabar com a possibilidade de uso de dados pessoais para direcionamento de publicidade programada, em especial aquela com motivação política.

Segundo o CCOM, os sistemas de remuneração das plataformas para utilizadores têm sido fundamentais na circulação e promoção de conteúdos ilegais e desinformação. “Geralmente, as plataformas possuem termos de serviço e diretrizes que proíbem tal prática e punem os usuários infratores com a suspensão da monetização. No entanto, os mecanismos para monitoramento visando detectar violação de políticas das plataformas, em geral, são automatizados ou por processos de tomada de decisão não aferíveis. Ocorre que o ambiente é volátil o que torna a moderação de conteúdo por si só insuficiente, pois os influenciadores podem migrar para plataformas com termos de serviço permissivos e os extremistas adaptam-se à moderação utilizando técnicas de evasão”, diz o estudo.

Como solução, o estudo da UnB realizado em parceria com a Anatel indica para a necessidade de oferecer à sociedade marcos regulatórios flexíveis, capazes de acompanhar as mudanças cotidianas das plataformas, além de terem uma abordagem ampla para lidar com a promoção de conteúdos ilegais e desinformação, centrando-se não apenas no conteúdo em si, mas também nos processos e plataformas que o produzem.

O que dizem os marcos legais analisados
A Lei Digital Services Act (DSA) responde à necessidade do continente europeu de estabelecer um padrão de transparência e responsabilização sobre a forma como as principais plataformas moderam o conteúdo e utilizam algoritmos.

Trata-se de um regulamento abrangente de proteção para os utilizadores da internet que busca encontrar um equilíbrio entre a proteção da liberdade de expressão e a limitação do discurso de ódio. Para tanto, mantém princípios fundamentais da Diretiva de Comércio Eletrônico, como a imunidade condicional dos provedores de hospedagem e a proibição de monitoramento geral. Entre as obrigações de transparência para intermediários e plataformas online muito grande, estão a exigência de emissão de relatórios detalhados que incluem informações sobre a moderação de conteúdo, uso de meios automatizados nessa operação, além de cobrar justificativa para as decisões de remoção de conteúdo e a manutenção de mecanismos de reclamação e recurso para os usuários. Dispõe de um modelo de responsabilidade baseado na boa-fé.

Tal como a DSA, a Lei inglesa, Online Safety Act, adota o mecanismo de avaliação de risco sobre conteúdo ilegal, exigindo que as plataformas realizem uma avaliação do acesso das crianças para verificar se elas podem aceder a todo ou parte de um serviço, devendo realizar uma avaliação de riscos.

O órgão regulador que supervisiona a aplicação da lei, a OFCOM, deve ser notificada sobre a presença de conteúdo prejudicial às crianças. Cabe aos serviços tomarem medidas proporcionais para evitar que os usuários encontrem conteúdos ilegais prioritários, além de mitigar e gerir eficazmente o risco de o serviço ser utilizado para cometer ou facilitar uma infração prioritária.

Modelo 2.630
Por fim, o projeto de lei 2.630/2020, conhecido como PL das Fake News, prevê a criação de medidas para prevenir, combater e responsabilizar a disseminação de notícias falsas nas plataformas digitais, inspirando-se na Digital Services Act da União Europeia.

Propõe a criação de uma entidade autônoma para fiscalizar os provedores de internet, chamada Conselho de Transparência e Responsabilidade na Internet, que teria a função de instaurar processos administrativos e aplicar sanções em caso de descumprimento da lei.

As plataformas seriam obrigadas a atuar rapidamente para prevenir e combater práticas ilícitas, sendo responsabilizadas civilmente pela circulação de conteúdos ilícitos e tendo que informar às autoridades sobre qualquer informação suspeita de crime. Além disso, os usuários deveriam ser notificados sobre os motivos de qualquer conteúdo ocultado ou excluído, com a possibilidade de recorrer contra a decisão.

Compartilhe: