EXCLUSIVO PARA ASSINANTES
Foto do(a) coluna

Jornalista, escritor e palestrante. Escreve às quintas

Opinião|Boa parte do debate sobre PL das Fake News estava marcado por polarização patológica

‘PL das Fake News’, como foi chamado, não dita as verdades e mentiras da internet, e sim responsabiliza empresas pelo conteúdo

PUBLICIDADE

Foto do author Pedro Doria
Atualização:

O fracasso da Câmara dos Deputados em votar o projeto de lei que regulamenta as plataformas digitais mostra que o processo legislativo brasileiro está quebrado. Era difícil encontrar deputados governistas capazes de defender o texto firmado pelo relator, Orlando Silva (PCdoB-SP). Isto não é dizer que fosse fácil encontrar na oposição muitos parlamentares com críticas consistentes — um punhado, não mais. O problema é mais amplo. Boa parte do debate fora do Congresso estava permeado por desinformação e marcado por uma polarização patológica.

PUBLICIDADE

Como colou o apelido PL das Fake News, criou-se a impressão de que o objetivo era definir o que é mentira e o que não é. Foi fácil, a partir daí, para plataformas e bolsonarismo se unirem no entorno de outro apelido: PL da Censura.

Hoje, as plataformas não são responsáveis pelo conteúdo que terceiros publicam. O espírito que moveu conceber a lei desta forma vem dos anos 1990, quando as pequenas startups que inventavam a internet eram empresas frágeis que poderiam ser esmagadas por uma onda de processos. Interessava à sociedade abrir um espaço de proteção para que pudessem criar o novo.

Agora, as Big Techs são as maiores empresas jamais criadas na história do capitalismo. E, diferentemente do que ocorria na época do Marco Civil, elas não apenas recebem passivamente conteúdo de terceiros. Elas literalmente escolhem que informação será vista e qual não terá qualquer audiência.

Para corrigir o problema, projeto cita três pontos: o primeiro é que as empresas serão responsáveis por impulsionar conteúdos que promovam crimes em geral e, em particular, violência contra a mulher, crianças e adolescentes, racismo e ameaça à democracia. Se elas permitirem ou contribuírem para a disseminação deste tipo de conteúdo, serão corresponsáveis junto aos autores.

Publicidade

O segundo ponto é que se estabelece um protocolo de segurança. Em momentos muito particulares, como foi o caso do período de medo com massacres escolares, autoridades poderão pedir às plataformas atenção particular a um tema.

E, por fim, elas terão de publicar com regularidade relatórios de riscos sistêmicos. São empresas movidas a inovação. Toda inovação pode gerar efeitos colaterais não previstos. Elas devem informar à sociedade sobre os riscos. A Meta, por exemplo, tinha conhecimento de que suas redes incentivavam depressão em adolescentes, automutilação, e jamais tornaram isso público.

Esses aspectos são os que podemos discutir. Mas não foi o que fizemos coletivamente nas últimas semanas.

Opinião por Pedro Doria
Tudo Sobre
Comentários

Os comentários são exclusivos para assinantes do Estadão.