Discord: ‘Temos que fazer mais para colaborar com autoridades brasileiras’

Após escândalos de abuso, empresa fala sobre as iniciativas para melhorar a segurança de adolescentes na plataforma

PUBLICIDADE

Foto do author Guilherme Guerra
Por Guilherme Guerra
Atualização:
Foto: Bart Nagel/Discord
Entrevista comSavannah BadalichDiretora sênior de políticas no Discord

Nos últimos meses, diversos casos de conteúdo extremista e abusos contra adolescentes no Brasil foram descobertos no Discord. Segundo investigações da Polícia Federal e da Polícia Civil, criminosos têm utilizado o aplicativo para chantagear garotas, cometer abusos sexuais, agressões e mutilações - o Estadão também encontrou conteúdo racista, neonazista e homofóbico. Até aqui, duas pessoas foram presas - na semana passada, o Tribunal de Justiça do Rio de Janeiro (TJRJ) decidiu manter a prisão de Pedro Ricardo Conceição da Rocha, suspeito de estupro de vulnerável.

Durante o processo das investigações e prisões, o Discord foi alvo de críticas por se comunicar publicamente apenas por via de nota emitida pelo escritório americano da empresa - um dos problemas, apontam especialistas, é que a companhia não tem escritório no Brasil, um dos maiores mercados no mundo.

Pressionada por autoridades de diversos países, o Discord lançou globalmente um pacote de recursos para que os país acompanhem as atividades dos filhos - e aproveitou para falar pela primeira vez com a imprensa brasileira sobre segurança na plataforma. No entendimento da empresa, os pais precisam conhecer melhor a plataforma.

“Nós queremos que os pais entendam como funciona o Discord”, afirma Savannah Badalich, diretora sênior de políticas no Discord, em entrevista exclusiva ao Estadão. “Grande parte da confusão e dos mal-entendidos em relação ao que os adolescentes estão fazendo é que os responsáveis se sentem muito distantes, como se isso estivesse fora de seus conhecimentos.”

Ela também falou sobre sobre moderação humana (uma das críticas à empresa é que falta moderação local de conteúdo), cooperação com autoridades brasileiras e os novos recursos de segurança (leia mais aqui). Porém, a executiva confirmou que não há planos de abertura de escritório no Brasil. Veja abaixo.

Considerando que a tecnologia nem sempre funciona bem para outros idiomas que não o inglês, por que não apostar em moderação de conteúdo humano para garantir as diretrizes de segurança da plataforma?

Usamos os dois métodos. A maioria da nossa base de usuários não fala inglês, e a maioria da nossa base de usuários não está nos Estados Unidos. A maneira como fazemos a segurança no Discord é com moderação em toda a plataforma. É a responsabilidade do Discord de encontrar conteúdo e removê-lo por meio de tecnologias, que podem ser classificadores de aprendizado de máquina, sistemas de regras e outros tipos de redes de inteligência.

No caso de materiais de abuso sexual infantil, verificamos todas as fotos no Discord em busca desse conteúdo e o removemos antes que ele seja disseminado. Além disso, temos também o trabalho reativo, o que significa que respondemos às denúncias dos usuários e temos funcionários da linha de frente, indivíduos que lidam com o pior tipo de conteúdo.

Publicidade

Grande parte da confusão e dos mal-entendidos em relação ao que os adolescentes estão fazendo é que os responsáveis se sentem muito distantes, como se isso estivesse fora de seus conhecimentos.

Savannah Badalich, diretora sênior de políticas no Discord

Além disso, temos também moderação da própria comunidade em nossa plataforma. Além das nossas regras, as pessoas podem criar um espaço para falar apenas sobre esportes, e a regra é não dizer nada fora do tópico. Mas os moderadores da comunidade não são os responsáveis pela moderação de conteúdo ruim em nossa plataforma: somos nós. Temos redes de organizações em todo o mundo que se concentram em questões específicas de segurança e que também sinalizam conteúdo para nós, incluindo linhas diretas que sinalizam dicas de pais ou adolescentes.

Então o uso de tecnologia é para aprimorar esse trabalho?

Para dar escala, sim. Você poderia escalonar com humanos, mas isso significa que sua empresa de tecnologia vai se tornar um grupo de pessoas dedicadas apenas à confiança e à segurança, e é muito difícil ser capaz de responder à medida que a organização cresce. Portanto, usamos a tecnologia para tomar decisões automaticamente, especialmente se soubermos que se trata do pior dos piores tipos de coisas. A tecnologia deve ser vista como a maneira pela qual dimensionamos nosso impacto e encontramos coisas de forma proativa.

No Brasil, criticou-se o fato de que o Discord não é proativo ao evitar conteúdos violentos, com uma abordagem reativa. Isso vai mudar com mais tecnologia?

Sim. Nós encontramos a grande maioria do conteúdo, sejam materiais sobre abuso sexual de crianças, conversas sobre tiroteios em escolas, questões sobre assédio e bullying, de forma proativa. Dito isso, quando se trata de solicitações do governo, tivemos que nos certificar de que passamos pelos procedimentos adequados internamente. E demorou um pouco mais do que o esperado. Mas respondemos a elas. E estamos fazendo o possível para continuar a investir em nossa equipe de relações governamentais para responder ainda mais rapidamente. Removemos 98% dos problemas relacionados à segurança infantil nas comunidades de forma proativa. Os 2% restantes são por meio de denúncias de usuários reais. Temos mais a fazer quando se trata de colaboração com autoridades brasileiras. Já estamos trabalhando com eles de forma muito próxima, inclusive com o Ministério da Justiça (do Brasil).

Mas vocês planejam melhorar isso? É tão fácil encontrar conteúdo ofensivo quanto um servidor esportivo...

Sim. Embora tenhamos 98% do conteúdo que removemos proativamente, do conteúdo que conhecemos, estamos constantemente investindo em mais classificadores, mais recursos humanos em nosso sistema de regras para encontrar esse conteúdo ainda mais rapidamente. Devido a todo o trabalho que realizamos em relação à detecção, estamos informando ainda mais às autoridades policiais. Portanto, sim, com certeza ainda há mais.

O Discord tem hoje mais de 150 milhões de usuários ativos mensais Foto: Dado Ruvic/Reuters

O Discord também foi criticado por não manter um escritório no Brasil. Vocês planejam abrir um escritório local para acelerar esse tipo de estratégia?

No momento, somos uma empresa jovem e só temos pessoas nos EUA e na Holanda. Estamos considerando uma expansão no Brasil, com certeza, já que há muitos usuários na área, mas não temos nenhum plano exato no momento. Vamos nos engajar mais diretamente, ter conversas diretas com os parceiros e visitá-los nos próximos meses.

Quantos usuários no Brasil tem o Discord?

Não compartilhamos informações sobre o nível do país, desculpe. Mas temos 150 milhões de usuários ativos mensais.

Sobre a Central de Família, os pais também devem criar uma conta no Discord?

Sim. Ao permitir a criação de uma conta, vai ser gerado um código QR para que um pai ou mãe que talvez não tenha uma conta possa criar uma nova conta e vinculá-la diretamente. Queremos que os pais entendam como o Discord funciona. E isso exige que eles estejam na plataforma. Grande parte da confusão e dos mal-entendidos em relação ao que os adolescentes estão fazendo é que os responsáveis se sentem muito distantes. Por isso, quando eles entrarem na plataforma para obter uma visão geral, também vamos ter recursos de tutoriais. Depois de vincularem a conta, eles terão a oportunidade, na janela da Central de Família, de ver atualizações semanais sobre os tipos de servidores em que o adolescente está. Também vamos enviar um e-mail, caso eles não queiram fazer o login imediatamente.

Publicidade

Então é importante que as famílias também usem o Discord para talvez entender como funcionam os servidores, os moderadores e todos esses recursos?

Sim. Os pais podem ter conversas informadas com seus filhos adolescentes sobre segurança física, porque eles mesmos já passaram por isso. Para entender realmente o que o adolescente está fazendo, que tipo de comunidades está criando, como está explorando a si mesmo e como deve se manter seguro por meio de uma infinidade de outras contas e controles no nível do servidor, acreditamos que eles precisam pelo menos entrar na plataforma. E, novamente, a Central de Família não se trata apenas de visibilidade para os pais. Queremos que esses pais e adolescentes tenham uma conversa aberta.

É a responsabilidade do Discord de encontrar conteúdo e removê-lo por meio de tecnologias

Savannah Badalich, diretora sênior de políticas no Discord

Comentários

Os comentários são exclusivos para assinantes do Estadão.