ESPECIAL PARA O ‘ESTADÃO’ - A disseminação de informações falsas nas plataformas digitais representa um desafio crescente para as instituições democráticas em todo o mundo. Em meio a impasses legislativos e forte resistência das corporações, os diferentes modelos de regulação evidenciam o complexo equilíbrio entre responsabilização das plataformas e seu poder econômico global.
Enquanto o Brasil discute no Congresso estratégias para combater as fake news, diferentes tipos de regulação avançam em países como a Austrália, a União Europeia e o Canadá, mostrando alguns dos caminhos possíveis, em um contexto marcado por debates intensos e resistência das empresas de tecnologia.

A situação brasileira
No Brasil, o debate sobre regulação das plataformas digitais ganhou força nos últimos anos, mas enfrenta desafios significativos. Embora o Marco Civil da Internet tenha sido pioneiro em estabelecer direitos e responsabilidades no ambiente digital em 2014, o texto não contempla a questão da desinformação.
“O Marco Civil cria uma imunização, uma blindagem jurídica para as plataformas, quando fala que para remover um post o indivíduo precisa de uma decisão judicial”, explica Ricardo Campos, professor na Universidade Goethe e diretor do Legal Grounds Institute. A legislação nasceu em um contexto em que redes sociais ainda engatinhavam e blogs e sites pessoais poderiam ser derrubados a qualquer momento por juízes em diferentes instâncias.
Com a popularização das redes sociais e dos apps de mensagens na última década, o tom da conversa mudou, com olhar específico na disseminação de desinformação. O PL 2630/20, conhecido como “PL das Fake News”, foi o que chegou mais perto de estabelecer um marco regulatório, com a proposta de mecanismos para a moderação de conteúdos ilegais, responsabilização das plataformas e a remuneração de veículos jornalísticos.
Leia também
Aprovado no Senado em 2020, o texto foi engavetado na Câmara após forte pressão contrária dos gigantes tecnológicos. Uma proposta mais moderada, o PL 4691/24, também pode ser votada neste ano, em uma abordagem intermediária entre o projeto original mais restritivo e a vontade das plataformas.
Paralelamente, o Ministério da Fazenda tem trabalhado em uma proposta que foca apenas na regulação econômica e competitiva das plataformas, seguindo o modelo do Digital Markets Act europeu. O relatório “Plataformas Digitais: aspectos econômicos e concorrenciais e recomendações para aprimoramentos regulatórios no Brasil” estabelece 12 medidas para o setor, incluindo limites a aquisições e proibição de auto-favorecimento em buscas e rankings.
Já o Supremo Tribunal Federal avalia a constitucionalidade do Artigo 19 do Marco Civil da Internet, que estabelece que as empresas digitais não são responsáveis pelo que é publicado por terceiros, exceto se não removerem materiais considerados ilegais após uma ordem judicial.
Apesar dos entraves, o País tem se destacado no debate sobre regulação. “O Brasil é um país que avançou muito nessa discussão. Dentro do continente, é o país que mais produziu debate legislativo e social sobre esse tema. São serviços muito complexos e que precisam ser amplamente debatidos”, afirma Iná Jost, coordenadora de pesquisa do InternetLab.
Dentro do continente, o Brasil é o que mais produziu debate legislativo e social sobre regulação de conteúdo. São serviços muito complexos e que precisam ser amplamente debatidos
Iná Jost, coordenadora de pesquisa do InternetLab
O modelo europeu
Principal referência na regulação das plataformas digitais, a União Europeia estabeleceu uma abordagem com duas leis complementares: o Digital Services Act (DSA), que foca na moderação de conteúdo, transparência, e responsabilidade das empresas, e o Digital Markets Act (DMA), que atua no aspecto econômico, regulando a concentração de poder.
Inspirado na lei alemã NetzDG de 2017 e implementadas gradualmente desde 2022, os códigos estabelecem regras rígidas para o funcionamento de serviços online com mais de 45 milhões de usuários europeus ativos, os VLOPs (Plataformas Online Muito Grandes).
O DSA, entre outras medidas, estabelece a necessidade de controle de materiais ilegais, impõe transparência nos algoritmos e proíbe o direcionamento de anúncios baseados em posicionamento político ou orientação sexual.
No campo da desinformação, o DSA exige sistemas eficazes para denúncia e remoção de informações falsas, relatórios anuais de riscos e o estabelecimento de comitês de crise. As empresas que não se adequarem ao código estão sujeitas a multas que chegam a 6% de seu faturamento global anual.
A legislação exige também auditorias externas e prevê acesso a dados para pesquisadores independentes analisarem o funcionamento dos algoritmos – uma inovação que permite verificar se o design das plataformas favorece conteúdos extremos ou enganosos.
Na parte de responsabilização, o modelo é claro: as plataformas não são automaticamente responsáveis por todo conteúdo publicado por terceiros, mas tornam-se responsáveis quando são notificadas sobre conteúdo ilegal e não tomam medidas.
“O DSA optou por não alterar a regra de responsabilidade civil de plataformas, mantendo a norma que já estava em vigor na União Europeia de que essas empresas apenas serão responsabilizadas caso tomem conhecimento do conteúdo ilícito produzido por terceiro e não adotem medidas para removê-lo”, explica Marcelo Frullani, especialista em direito e tecnologia da USP.
Complemento do DSA, o Digital Markets Act ataca o problema da concentração de mercado. Empresas designadas como “gatekeepers”, como Alphabet, Amazon, Apple, ByteDance, Meta e Microsoft, enfrentam restrições mais severas para evitar práticas anticompetitivas que consolidem seu domínio. Entre as medidas estão a proibição de favorecimento de serviços próprios, interoperabilidade obrigatória entre plataformas e mais controle para os usuários sobre seus próprios dados.
Mesmo assim, há resistência por parte das corporações, que insistem em não se adequar às regras e tentam judicializar as decisões da Comissão Europeia. “As empresas tentam ver até onde podem ir sem sofrer consequências”, afirma o especialista em direito digital do European Digital Rights (EDRi), Jan Penfrat. “Como existem muitas violações – algumas com grande impacto – e muitas plataformas diferentes, os reguladores enfrentam uma carga enorme de trabalho de fiscalização”, diz.
Desde o início da vigência, mais de 50 processos de não-conformidade já foram investigados pela Comissão Europeia. Até o momento, nenhuma empresa foi multada, mas isso pode mudar em breve. O X (antigo Twitter) foi formalmente acusado em 2024 de violar as regras por não ser transparente com anúncios, impedir o acesso público a seus dados e enganar seus usuários, com um sistema de verificação que foge dos padrões da indústria.
“O DSA é importante, mas as empresas simplesmente têm poder demais. Nenhuma companhia isoladamente deveria concentrar tanto dinheiro e influência, incluindo poder político. Precisamos mudar essa realidade”, conclui Penfrat.

O modelo australiano
Na Austrália, a abordagem foi diferente. Em vez de focar na remoção de informações falsas, o modelo proposto concentrou-se na remuneração justa dos veículos jornalísticos por seu conteúdo, por meio do News Media Bargaining Code.
“Na Austrália, criou-se um sistema em que há uma preocupação com o fomento da informação de qualidade. Quem circula a informação e ganha com publicidade também deve contribuir com a remuneração do jornalismo”, afirma Ricardo Campos.
Proposta pelo governo de Scott Morrison e aprovada em 2021, a lei enfrentou resistência das plataformas: a Meta chegou a bloquear temporariamente o acesso a notícias no país como forma de pressão, afetando o acesso à informação em um momento crucial da pandemia de covid-19. Posteriormente, a empresa concordou em negociar com os veículos de imprensa.
“Isso obrigou o Google e a Meta a negociarem com as empresas de mídia. Alguns veículos, como a ABC e o The Guardian, criaram cerca de 50 novas vagas para jornalistas graças ao financiamento adicional”, explica Bill Browne, diretor do programa de Democracia do Australian Institute.
Em 2024, a Austrália tentou expandir a regulação com o Misinformation Bill, inspirado no modelo europeu, mas a proposta perdeu força no senado sob acusações de ameaça à liberdade de expressão.
Após a Meta anunciar que não renovaria seus acordos com os veículos, o governo de Anthony Albanese criou o “news bargaining incentive”, com uma nova taxa sobre gigantes digitais com receita acima de US$ 250 milhões no país, dedutível mediante negociações diretas com a imprensa.
“Quanto mais países estiverem envolvidos, mais difícil se torna para as empresas resistirem. A lição é ter uma ferramenta de pressão simples e trabalhar coordenadamente, já que estamos lidando com um problema internacional”, conclui Browne.
“Na Austrália, criou-se um sistema em que há uma preocupação com o fomento da informação de qualidade. Quem circula a informação e ganha com publicidade também deve contribuir com a remuneração do jornalismo
Ricardo Campos, professor na Universidade Goethe e diretor do Legal Grounds Institute
A tentativa canadense
Inspirado pelo modelo australiano, o Canadá adotou o Online News Act em 2023, estabelecendo a remuneração de veículos jornalísticos pelo conteúdo veiculado nas plataformas.
A resposta da Meta foi remover completamente as notícias de suas plataformas no país, enquanto o Google ameaçou fazer o mesmo, mas posteriormente cedeu às negociações, aceitando um pagamento anual de US$ 69 milhões aos veículos jornalísticos. A Meta, porém, se manteve firme em sua posição: mais de um ano depois, as notícias continuam fora do Facebook e Instagram no país, mesmo durante eventos críticos, como incêndios florestais.
Nesse cabo de guerra, a Meta, por enquanto, saiu vencedora - enquanto o engajamento dos veículos despencou, a gigante da tecnologia não registrou perdas significativas de usuários e manteve suas receitas publicitárias estáveis. O precedente estabelecido parece ter se transformado em estratégia global quando a Meta anunciou em 2024 que não renovaria os acordos firmados na Austrália.

Segundo um estudo da McGill University e da University of Toronto, os veículos perderam cerca de 85% de seu engajamento nas plataformas da Meta, contribuindo para uma queda geral de 43% no tráfego digital. O consumo de conteúdo jornalístico diminuiu em aproximadamente 11 milhões de visualizações mensais, com os usuários continuando a se informar politicamente pelas redes, mas por materiais menos factuais e mais enviesados.
Para Iná Jost, a retirada das notícias exemplifica um efeito colateral negativo da legislação: “O legislador não queria privar os usuários de acessar notícias, pelo contrário, queria que as pessoas pudessem acessá-las, mas que os portais também fossem pagos por esse conteúdo.”
Nos EUA, o foco é a ‘liberdade’
Sediadas nos Estados Unidos, as big techs jogam em casa, respaldadas pelo poder da Primeira Emenda, que garante a liberdade de expressão e de imprensa. Na esfera federal, a principal regulação que trata de conteúdo na internet é justamente uma blindagem para as plataformas: a Seção 230 do Communications Decency Act, uma lei de 1996 que garante a imunidade de responsabilidade dos provedores de serviços sobre os conteúdos publicados por terceiros. Essa abordagem, que contrasta fortemente com o modelo europeu, cria desafios para a moderação global de conteúdo, já que o respaldo legal oferecido pelos EUA às big techs serve como justificativa para resistirem a regulações mais rígidas em outros países.
Pelo código, as plataformas têm direito de remover conteúdos considerados obscenos, ofensivos ou excessivamente violentos, mesmo que não violem a constituição. Além disso, materiais que infringem leis federais também devem ser retirados – majoritariamente violações de direitos autorais.
Leia também
Os menores são o único grupo protegido por uma legislação federal específica, a COPPA (Children’s Online Privacy Protection Act), de 2000, que protege a privacidade dos dados de crianças menores de 13 anos, exigindo o consentimento dos pais para coleta de informações. Esta lei é um dos motivos pelos quais as plataformas proíbem usuários abaixo dessa idade, e tem sido aplicada com rigor: em 2019, o YouTube foi multado em US$ 170 milhões por violações. Um novo projeto bipartidário, o KOSA (Kids Online Safety Act), focado em proteger crianças e adolescentes de conteúdos danosos, está em tramitação no Congresso desde 2022.
Na ausência de uma regulação nacional abrangente contra desinformação, os principais avanços regulatórios têm ocorrido nos estados. A Califórnia estabeleceu em 2018 o California Consumer Privacy Act e em 2020 o California Privacy Rights Act, duas leis focadas na proteção de dados e privacidade dos usuários. O estado de Washington também implementou sua própria legislação de proteção de dados em 2023. Na direção oposta, estados como Flórida e Texas tentaram aprovar leis impedindo que as plataformas moderem conteúdos de políticos conservadores, embora essas iniciativas tenham enfrentado desafios judiciais.
Essas decisões judiciais são hoje um dos principais campos de batalha na disputa pela regulação. “Eu gosto de brincar com meus amigos europeus: vocês têm regulações, os Estados Unidos têm processos judiciais”, diz Angie Holan, diretora da International Fact-Checking Network. Um exemplo significativo são os mais de 200 distritos escolares no país que processam empresas como Meta, Google e TikTok pelos danos causados à saúde mental dos estudantes e pelos aspectos viciantes das plataformas.
Eu gosto de brincar com meus amigos europeus: vocês têm regulações, os Estados Unidos têm processos judiciais
Angie Holan, diretora da International Fact-Checking Network
Nos tribunais americanos, as empresas também conquistaram vitórias importantes, como em 2023, quando a Suprema Corte determinou que as redes sociais não têm responsabilidade sobre conteúdo terrorista postado e recomendado por seus algoritmos, reforçando a proteção conferida pela Seção 230.
O papel dos algoritmos
A discussão sobre desinformação também envolve o próprio design das redes sociais, cujos algoritmos favorecem a propagação de inverdades, criando incentivos financeiros para essa disseminação.
“Mensagens com alto conteúdo emocional se espalham viralmente com mais rapidez. Quando alguém tenta manipular o sistema, criar alegações falsas é uma das maneiras mais fáceis. As redes estabeleceram caminhos bem definidos que facilitam a disseminação de falsidades”, explica Angie Holan.
“Quanto mais as pessoas ficam indignadas e irritadas nas plataformas, mais elas se envolvem – o que significa mais receita publicitária”, resume Penfrat.
Na tentativa de mitigar esses feitos, o DSA europeu exige que plataformas digitais analisem os riscos sistêmicos de seus algoritmos, garantam transparência sobre seu funcionamento e ofereçam aos usuários a opção de um feed sem personalização. Embora a maioria das empresas tenha implementado essa exigência, algumas, incluindo a Meta, dificultam o acesso a essa opção, escondendo ela nas configurações, segundo o pesquisador da organização European Digital Rights. “Isso é uma clara violação do DSA, mas as empresas tentam ver até onde podem ir sem sofrer consequências”, diz.
Nos Estados Unidos, propostas semelhantes foram apresentadas, como o Filter Bubble Transparency Act, que previa um feed sem recomendações personalizadas, e o Algorithm Justice and Online Platform Transparency Act, que estabelecia regras de transparência. Ambas, no entanto, foram rejeitadas pelo Congresso.
Para Holan, conforme as corporações se tornam mais poderosas, a pressão por regulação tende a aumentar. “As plataformas buscam liberdade extrema para fazer o que quiserem, independentemente do interesse público. Quando vemos essas corporações gigantescas que essencialmente se tornam monopólios, parece que são elas que controlam a sociedade, não o contrário.”
A atuação das big techs contra a regulação, muitas vezes aliando-se a setores extremistas, também é estratégica. “As duas partes saem ganhando: enquanto as redes não precisam se adaptar para tornar ambientes menos nocivos, os extremistas se beneficiam de sistemas que valorizam publicações sensacionalistas e da ausência de transparência dos mecanismos de moderação”, analisa Frullani.
“Enquanto os modelos de negócio dessas empresas se basearem na coleta de dados para direcionar publicidade, tudo o mais será apenas um remendo para um sistema falho. É por isso que começamos a falar sobre alternativas para as mídias sociais”, conclui Penfrat.