Num determinado momento da campanha presidencial de 2016, assisti a uma série de vídeos de comícios de Donald Trump no YouTube. Estava escrevendo um artigo a respeito do poder de sedução que ele exercia em seu eleitorado e queria confirmar algumas citações.
Logo reparei em algo peculiar. O YouTube começou a recomendar e reproduzir automaticamente vídeos que traziam discursos de supremacia branca, negação do Holocausto e outros conteúdos perturbadores. Como não tenho o hábito de assistir propaganda de extrema direita no YouTube, fiquei curiosa para saber se esse fenômeno se restringia à direita. Assim, criei outra conta no YouTube e comecei a assistir a vídeos de Hillary Clinton e Bernie Sanders, deixando o algoritmo de recomendações do YouTube apontar a direção a seguir.
Em pouco tempo, fui encaminhada para vídeos de um canal esquerdista de conspirações, incluindo discussões a respeito da existência de agências secretas do governo e alegações segundo as quais o governo dos Estados Unidos estaria por trás dos ataques de 11 de setembro. Como ocorreu com os vídeos de Trump, o YouTube estava recomendando conteúdos mais extremos do que o discurso político comum do qual eu tinha partido.
Intrigada, fiz um experimento com temas desligados da política. O mesmo padrão básico foi observado. Vídeos de vegetarianismo levaram a vídeos de veganismo. Vídeos de corridas amadoras levaram a vídeos de ultramaratonas.
É como se o usuário nunca fosse “radical" o bastante para o algoritmo de recomendação do YouTube. Ele promove, recomenda e dissemina vídeos de uma maneira que parece sempre levar a coisa a um novo patamar. Levando em consideração seu público de aproximadamente um bilhão de usuários, o YouTube pode ser um dos instrumentos de radicalização mais poderosos do século 21.
Isso não ocorre porque uma cabala de engenheiros do YouTube planeja levar o mundo para a beira do abismo. Uma explicação mais provável deve estar ligada ao encontro entre a inteligência artificial e o modelo de negócios do Google (o YouTube pertence ao Google). Apesar de toda a sua retórica pomposa, o Google é uma corretora de publicidade, vendendo sua atenção para empresas dispostas a pagar por ela. Quanto mais as pessoas permanecem no YouTube, mais dinheiro o Google ganha.
O que mantém as pessoas ligadas ao YouTube? Seu algoritmo parece ter concluído que as pessoas são atraídas por conteúdo que seja mais extremo do que o ponto de partida, ou pelo conteúdo incendiário em geral.
Essa suspeita está correta? É difícil encontrar bons dados a esse respeito; o Google não compartilha informações com pesquisadores independentes. Mas temos agora os primeiros vestígios de confirmação, graças em parte a um ex-engenheiro do Google chamado Guillaume Chaslot.
Chaslot trabalhou no algoritmo de recomendações quando era funcionário do YouTube. Ficou alarmado com as táticas usadas para aumentar o tempo que as pessoas passam no site. O Google o demitiu em 2013, citando seu desempenho no emprego. Ele sustenta que o real motivo foi o fato de ter pressionado demasiadamente por mudanças na política da empresa para esses assuntos.
O Wall Street Journal realizou uma investigação do conteúdo do YouTube com a ajuda de Chaslot. Foi revelado que o YouTube com frequência “empurra vídeos de extrema direita ou extrema esquerda a usuários que assistiram programas jornalísticos relativamente neutros", e que essas tendências extremistas ficam evidentes numa ampla gama de material. Se alguém procura informações a respeito da vacina contra a gripe, as recomendações passam a incluir vídeos a respeito de conspirações da campanha antivacinação.
Também é possível que o algoritmo de recomendação do YouTube apresente a tendência de exibir conteúdo polêmico. No período que antecedeu a eleição de 2016, Chaslot criou um programa para acompanhar os vídeos mais recomendados do YouTube e também seus padrões de recomendação. Ele descobriu que, independentemente de partirmos de um vídeo pró-Trump ou pró-Hillary no YouTube, a probabilidade de um vídeo pró-Trump ser recomendado era muito maior.
Se combinarmos essa revelação com outras pesquisas mostrando que, durante a campanha de 2016, as notícias falsas, que tendem ao absurdo, incluíram muito mais conteúdo pró-Trump do que pró-Hillary, a tendência do YouTube de favorecer o conteúdo polêmico parece evidente.
Recentemente, o YouTube foi criticado por recomendar vídeos promovendo teorias da conspiração segundo as quais os sobreviventes do tiroteio de Parkland, Flórida, são “encenadores de crises” se passando por vítimas. O pesquisador Jonathan Albright, da Universidade Columbia, em Nova York, manteve ativa recentemente uma conta do YouTube com uma busca por “encenador de crise” e descobriu que, ao seguir a recomendação do que assistir a seguir, o usuário era levado para uma rede de cerca de 9 mil vídeos promovendo essa teoria da conspiração e muitas outras.
O que estamos testemunhando é a exploração computacional de um desejo humano natural: olhar “nos bastidores”, mergulhar mais fundo em algo que nos mobiliza. De clique em clique, somos levados pela emocionante sensação de descobrir mais segredos e verdades mais profundas. O YouTube conduz o espectador por um túnel de extremismo, enquanto o Google fatura alto com a venda de anúncios.
Os seres humanos têm muitas tendências naturais que precisam ser monitoradas no contexto da vida moderna. Por exemplo, nosso desejo por gordura, sal e açúcar, que nos ajudou bastante quando o alimento era escasso, pode nos desviar do rumo num ambiente no qual gordura, sal e açúcar são demasiadamente abundantes e oferecidos agressivamente pelo marketing. O mesmo vale para nossa curiosidade natural em relação ao desconhecido, que pode nos desencaminhar numa página que promova mentiras, farsas e desinformação.
Na prática, o YouTube criou um restaurante que nos serve alimentos cada vez mais saturados de gordura e açúcar, enchendo nossos pratos assim que terminamos a refeição anterior. Com o tempo, nosso paladar se ajusta, e buscamos alimentos ainda mais gordos e açucarados, que o restaurante prontamente oferece. Quando os confrontamos, os donos do restaurante dizem estar apenas servindo o que pedimos.
Essa situação é especialmente perigosa levando em consideração o número de pessoas (principalmente os jovens) que procuram informações no YouTube. Os resistentes e baratos laptops Chromebook, do Google, que agora detêm mais de 50% do mercado de ensino fundamental e médio nos Estados Unidos, costumam ser equipados com pronto acesso ao YouTube.
Essa situação é inaceitável, mas não inevitável. Não há razão para permitir que uma empresa ganhe tanto dinheiro ao mesmo tempo em que ajuda potencialmente a radicalizar as opiniões de bilhões de pessoas, colhendo os benefícios financeiros enquanto pede à sociedade que arque com tamanho custo.
Zeynep Tufekci, professora-assistente da Faculdade de Ciência Biblioteconômica e da Informação da Universidade da Carolina do Norte, é a autora de “Twitter and Tear Gas: The Power and Fragility of Networked Protest".