PUBLICIDADE

Vozes geradas por inteligência artificial viram nova arma de golpistas nos EUA

Ferramentas inteligentes deixam golpes mais sofisticados

Por Pranshu Verma

THE WASHINGTON POST - O homem que ligou para Ruth Card tinha a voz igualzinha a de seu neto Brandon. Por isso, quando ele disse que havia sido preso, mas estava sem carteira ou celular e precisava de dinheiro para pagar a fiança, Ruth correu para fazer tudo o que podia para ajudar.

Ruth, 73, e seu marido, Greg Grace, 75, foram correndo até o banco em Regina, Saskatchewan (Canadá) e sacaram 3 mil dólares canadenses (US$ 2.207), limite permitido no dia. Em seguida, foram até uma segunda agência para sacar mais dinheiro. Mas o gerente do banco pediu que eles fossem até seu escritório: outro cliente tinha recebido uma ligação semelhante e percebeu que a voz assustadoramente parecida era uma farsa. O homem que lhe ligou provavelmente não era o neto deles. Foi quando perceberam que tinham sido enganados.

PUBLICIDADE

O suplício de Ruth indica uma tendência preocupante. A tecnologia está tornando mais fácil e mais barato para uma pessoa mal-intencionada imitar vozes, convencendo outras, muitas vezes idosas, de que seus entes queridos estão em perigo. Em 2022, os golpes de impostores foram o segundo tipo de extorsão mais praticado nos EUA, com mais de 36 mil relatos de pessoas sendo ludibriadas por aqueles que fingem ser amigos e familiares, de acordo com dados da Comissão Federal de Comércio (FTC, na sigla em inglês). Mais de 5.100 desses incidentes aconteceram por telefone, sendo responsáveis por mais de US$ 11 milhões em perdas, disseram funcionários da FTC.

Os avanços na inteligência artificial (IA) trouxeram uma nova preocupação, permitindo àqueles mal-intencionados a imitar a voz de alguém com apenas uma amostra de áudio com algumas frases. Alimentadas por IA, uma série de ferramentas online baratas podem transformar um arquivo de áudio na réplica de uma voz, permitindo que bandidos a usem para “falar” qualquer coisa digitada por eles.

Especialistas dizem que as agências reguladoras, a polícia e a justiça não estão preparados para frear o golpe cada vez mais comum. A maioria das vítimas tem poucas pistas para identificar o criminoso e é difícil para a polícia rastrear as chamadas e o dinheiro de golpistas em ação pelo mundo. Além disso, há poucos precedentes legais para a justiça responsabilizar as empresas que fabricam as ferramentas pelo seu uso.

“É aterrorizante”, disse Hany Farid, professor de forense digital da Universidade da Califórnia, em Berkeley. “É uma espécie de conjunção de fatores desagradáveis ... [com] todos os ingredientes necessários para se criar o caos.”

Embora esses golpes aconteçam de várias formas, eles funcionam basicamente da mesma maneira: um golpista se passa por alguém de sua confiança – uma criança, um parceiro ou um amigo – e convence a vítima a enviar dinheiro porque a pessoa está em apuros.

Publicidade

Entretanto, a tecnologia de voz gerada artificialmente está tornando o truque mais convincente. As vítimas relatam reagir com pavor profundo ao ouvir entes queridos em perigo.

É um impacto tenebroso da expansão recente da inteligência artificial generativa, que está por trás de softwares que criam textos, imagens ou sons com base nos dados com os quais são alimentados, como o ChatGPT. Os avanços na matemática e no poder computacional aprimoraram os mecanismos de treinamento para esses softwares, estimulando uma série de empresas a lançar chatbots, criadores de imagens e de voz estranhamente realistas.

Os softwares de geração de voz com IA analisam o que torna a voz de uma pessoa única – incluindo idade, gênero e sotaque – e pesquisam num banco de dados de vozes enorme para encontrar outras semelhantes e prever padrões, disse Farid.

Eles conseguem então recriar o tom, o timbre e os sons específicos da voz de uma pessoa para gerar um resultado que, no geral, é semelhante, acrescentou. Para isso, basta uma amostra pequena de áudio, que pode ser extraída de lugares como YouTube, podcasts, comerciais, TikTok, Instagram ou vídeos do Facebook, disse Farid.

“Dois anos atrás ou até mesmo há um ano, você precisava de bastante áudio para clonar a voz de uma pessoa”, disse Farid. “Agora... se você tem uma página no Facebook... ou se gravou um TikTok e sua voz está nele por 30 segundos, as pessoas podem clonar sua voz.”

Inteligência artificial é capaz de imitar vozes de pessoas Foto: Creative Commons

PUBLICIDADE

Dificuldades e fiscalização

Eva Velasquez, CEO do Identity Theft Resource Center, ONG que presta assistência a vítimas de crimes desse tipo, disse que é difícil para a polícia rastrear criminosos de clonagem de voz. Segundo Eva, que passou 21 anos no Ministério Público Estadual em San Diego investigando fraudes contra consumidores, os departamentos de polícia podem não ter dinheiro e profissionais suficientes para financiar uma unidade dedicada ao rastreamento de fraudes.

Departamentos maiores precisam fazer a triagem de recursos para casos que podem ser resolvidos, disse ela. As vítimas de golpes de clonagem de voz podem não ter muitas informações para dar à polícia para as investigações, dificultando a destinação de tempo e recursos pelos policiais, principalmente no caso de perdas menores.

“Sem ter nenhuma informação”, disse ela. “Por onde eles começam?”

O professor Farid, porém, vê um caminho. Para ele, a justiça americana precisa responsabilizar as empresas de IA se os produtos que produzem levam a danos. Há um motivo para isso. Por lá, juristas, como o juiz da Suprema Corte americana Neil M. Gorsuch, afirmam que as proteções legais que blindam as redes sociais de ações judiciais podem não ser aplicáveis às ações geradas por IA. /TRADUÇÃO DE ROMINA CÁCIA

Comentários

Os comentários são exclusivos para assinantes do Estadão.