Foto do(a) page

Conheça o Espaço Aberto na editoria de Opinião do Estadão. Veja análises e artigos de opinião em colunas escritas por convidados e publicadas pelo Estadão.

Opinião|As futuras eleições

2024 pode marcar o início de uma nova era para as democracias. Precisamos avançar no combate aos novos tipos de conteúdos desinformativos

Hoje, no Brasil e no mundo, o Tribunal Superior Eleitoral (TSE) está na vanguarda do combate à desinformação, com normas e comandos decisórios robustos, definindo as regras do jogo democrático para os candidatos na era digital. Assim, lembre-se da decisão do TSE que equiparou as redes digitais aos meios tradicionais de comunicação, o que foi essencial para responsabilizar candidatos infratores informacionais. E a Resolução TSE n.º 23.714, de 2022, a determinar prazos e modelos adaptados à velocidade do novo cenário digital. Mas, fora de sua esfera, é preciso avançar nas discussões sobre o espaço virtual, responsabilidades das plataformas digitais e dos usuários na moderação e disseminação de conteúdos nocivos para a democracia.

Um importante passo – e um excelente exemplo – foi dado recentemente pelo governo norte-americano, que emitiu uma Ordem Executiva sobre Inteligência Artificial (IA). O mote é a “inovação responsável”, segura e confiável. Ademais, essa norma reorienta o desenvolvimento de inteligência artificial, de maneira que a inovação ocorra em prol da população norte-americana. O slogan, aqui, é Make AI Work for the American People. Considerando que a sede das maiores plataformas digitais globais, principais empresas capazes de fazer avançar a IA, é justamente os EUA, o impacto dessa normativa deve alcançar uma dimensão estratégica em nível planetário. Durante o lançamento da medida, o próprio presidente Joe Biden fez, aliás, uma breve menção às deepfakes, por ter assistido a um vídeo falso em que ele mesmo aparece dizendo coisas que nunca disse.

Nos últimos anos, as novas tecnologias, especialmente as diversas modalidades de inteligência artificial, deram um salto quantitativo e qualitativo com pouquíssima ou nenhuma regulamentação jurídica pró-sociedade. De outra parte, democracias passaram por abalos significativos, de difícil recomposição diante da cisão radical entre grupos no espaço público, especialmente porque essa divisão acaba sendo perpetuada e constantemente reforçada pelo modelo de funcionamento das principais plataformas digitais. Via algoritmos, as redes mundiais privilegiam a segmentação dos usuários por meio do suposto perfil de cada um, agrupando-os em conformidade com esses dados, embora seja comum assumir que estaríamos todos conectados a uma mesma aldeia global.

O lançamento do ChatGPT 3.5 pela OpenAI trouxe mais um novo paradigma tecnológico a empurrar as relações sociais para um novo patamar de dificuldades. Apesar de ser comprovado que essa plataforma pode gerar informações falsas, ela já conta com adesão massiva da sociedade. A própria OpenAI possui a DALL-E, uma ferramenta text-to-image, que cria imagens e vídeos “realistas” com base em linguagem natural inseria pelo interessado.

Outro exemplo é a HeyGen, uma ferramenta que adapta o input textual do interessado ao padrão do movimento labial do alvo (um político, por exemplo) e gera um vídeo que pode ser bastante preciso e convincente.

Esse tipo de IA generativa pode servir às deepfakes, com a alteração maliciosa de vídeos ou áudios. Há exemplos de manipulação de rostos de pessoas em corpos nus, em situações constrangedoras ou violentas, que no campo eleitoral podem se traduzir em violência política de gênero. Por tal motivo, diversas pesquisas de universidades públicas pelo mundo, em estágios já avançados, estão criando ferramentas capazes de identificar com acurácia a adulteração de vídeos, de maneira a também permitir a difusão destes novos instrumentos tecnológicos para a defesa da sociedade.

Entretanto, quando um vídeo viraliza, é difícil reverter seus impactos, fragilizando a liberdade democrática, a concorrência sadia entre candidatos e influenciando de forma definitiva a opinião pública. A eficácia das redes é praticamente instantânea. Portanto, o mau uso do poder tecnológico pode determinar os rumos da democracia, decidir eleições e induzir a coletividade a grandes equívocos. Por isso há propostas para que os vídeos baseados em IA generativa sejam etiquetados, indicando tratar-se de um vídeo “construído”, logo, “falso”. É um primeiro passo para mitigar os riscos. Esse tipo de medida, porém, não afastará totalmente os perigos no uso livre e disseminado de IA. Outra proposta, menos factível no atual estágio, é a de que a própria IA não seja lançada ao mercado consumidor sem um estudo de seus riscos sistêmicos para a humanidade e para a democracia.

Recentemente, o TikTok atualizou suas diretrizes para proibir mídias sintéticas (que são os vídeos gerados ou modificados por IA) em algumas hipóteses. Trata-se do que chamamos de autorregulação, que, embora bem-vinda, não oferece a mesma segurança jurídica de um direito uniforme para todos e no interesse de todos, que não dependa apenas de uma bondade voluntariosa e volátil de cada plataforma digital.

O próximo ano pode marcar o início de uma nova era para as democracias. A inteligência artificial terá uma abrangência até então não experimentada, porque, enfim, a IA é uma realidade e se popularizou. Precisamos estar preparados.

*

SÃO, RESPECTIVAMENTE, MINISTRO DO STF, PRESIDENTE DO TSE, PROFESSOR ASSOCIADO DA FACULDADE DE DIREITO DA USP E TITULAR PLENO DA UNIVERSIDADE PRESBITERIANA MACKENZIE; E MINISTRO DO TSE, PROFESSOR TITULAR DA FACULDADE DE DIREITO DA USP E PROFESSOR DA PUC/SP E DA FADISP

Opinião por Alexandre de Moraes e André Ramos Tavares