‘Estamos longe de conseguir detectar rostos falsos’, diz pesquisador de Stanford


Professor da Universidade Stanford, Ohad Fried falou ao Estado sobre como se preparar para o uso da tecnologia de inteligência artificial para a criação de rostos falsos

Por Bruno Romani
Ohad Fried, professor da Universidade Stanford Foto: Stanford

Professor da Universidade Stanford, Ohad Fried tem longa carreira dedicada ao uso de algoritmos para a produção de imagens. Em seu trabalho mais recente, ele pôs palavras na boca de pessoas em vídeos, com técnicas de deepfake.

No sistema, era possível digitar uma frase e gerar digitalmente os movimentos faciais correspondentes às palavras. Ao Estado, Fried falou sobre como se preparar para o uso da tecnologia. 

continua após a publicidade

Estamos prontos para lidar com rostos gerados por inteligência artificial (IA)?

Não. Isto é, não há um bom método para detectar automaticamente todas as faces geradas por IA. Mas sua pergunta supõe que não há formas de fazer bots parecerem legítimos de uma forma que não seja usando rostos gerados por IA. É muito mais fácil baixar as fotos de alguém real na internet e usá-las em um perfil falso. O que a IA acrescenta, de fato, é a habilidade de sintetizar muitos rostos, o que é um pouco mais fácil que baixar tudo do Google. 

Como as sociedades podem se preparar para essa tecnologia?

continua após a publicidade

Precisamos educar as pessoas sobre a capacidade da tecnologia e trabalhar em ferramentas capazes de determinar origem de fotos, vídeos e áudios. Devemos garantir que leis e termos de uso estejam em compasso com os avanços tecnológicos. 

É complexo identificar se um material foi gerado por IA? 

Há pesquisas, mas estamos longe de uma solução capaz de detectar todos os tipos de conteúdo. Talvez nunca chegaremos lá. É uma corrida de gato e rato, mas é preciso disputá-la. 

continua após a publicidade

Que regulação deveria existir?

É complicado criar uma regulação útil e atingível. Espero apenas que as pessoas que conheçam bem a tecnologia sejam consultadas no processo. 

Rostos sintetizados podem causar em fotos e vídeos reais o mesmo efeito que notícias falsas tiveram sobre conteúdo jornalístico? 

continua após a publicidade

Sim. Existe potencial de rotulação falsa, em ambas as direções, à medida que esse tipo de tecnologia se torna conhecida. As pessoas podem chamar conteúdo real de fake e vice-versa. 

Ohad Fried, professor da Universidade Stanford Foto: Stanford

Professor da Universidade Stanford, Ohad Fried tem longa carreira dedicada ao uso de algoritmos para a produção de imagens. Em seu trabalho mais recente, ele pôs palavras na boca de pessoas em vídeos, com técnicas de deepfake.

No sistema, era possível digitar uma frase e gerar digitalmente os movimentos faciais correspondentes às palavras. Ao Estado, Fried falou sobre como se preparar para o uso da tecnologia. 

Estamos prontos para lidar com rostos gerados por inteligência artificial (IA)?

Não. Isto é, não há um bom método para detectar automaticamente todas as faces geradas por IA. Mas sua pergunta supõe que não há formas de fazer bots parecerem legítimos de uma forma que não seja usando rostos gerados por IA. É muito mais fácil baixar as fotos de alguém real na internet e usá-las em um perfil falso. O que a IA acrescenta, de fato, é a habilidade de sintetizar muitos rostos, o que é um pouco mais fácil que baixar tudo do Google. 

Como as sociedades podem se preparar para essa tecnologia?

Precisamos educar as pessoas sobre a capacidade da tecnologia e trabalhar em ferramentas capazes de determinar origem de fotos, vídeos e áudios. Devemos garantir que leis e termos de uso estejam em compasso com os avanços tecnológicos. 

É complexo identificar se um material foi gerado por IA? 

Há pesquisas, mas estamos longe de uma solução capaz de detectar todos os tipos de conteúdo. Talvez nunca chegaremos lá. É uma corrida de gato e rato, mas é preciso disputá-la. 

Que regulação deveria existir?

É complicado criar uma regulação útil e atingível. Espero apenas que as pessoas que conheçam bem a tecnologia sejam consultadas no processo. 

Rostos sintetizados podem causar em fotos e vídeos reais o mesmo efeito que notícias falsas tiveram sobre conteúdo jornalístico? 

Sim. Existe potencial de rotulação falsa, em ambas as direções, à medida que esse tipo de tecnologia se torna conhecida. As pessoas podem chamar conteúdo real de fake e vice-versa. 

Ohad Fried, professor da Universidade Stanford Foto: Stanford

Professor da Universidade Stanford, Ohad Fried tem longa carreira dedicada ao uso de algoritmos para a produção de imagens. Em seu trabalho mais recente, ele pôs palavras na boca de pessoas em vídeos, com técnicas de deepfake.

No sistema, era possível digitar uma frase e gerar digitalmente os movimentos faciais correspondentes às palavras. Ao Estado, Fried falou sobre como se preparar para o uso da tecnologia. 

Estamos prontos para lidar com rostos gerados por inteligência artificial (IA)?

Não. Isto é, não há um bom método para detectar automaticamente todas as faces geradas por IA. Mas sua pergunta supõe que não há formas de fazer bots parecerem legítimos de uma forma que não seja usando rostos gerados por IA. É muito mais fácil baixar as fotos de alguém real na internet e usá-las em um perfil falso. O que a IA acrescenta, de fato, é a habilidade de sintetizar muitos rostos, o que é um pouco mais fácil que baixar tudo do Google. 

Como as sociedades podem se preparar para essa tecnologia?

Precisamos educar as pessoas sobre a capacidade da tecnologia e trabalhar em ferramentas capazes de determinar origem de fotos, vídeos e áudios. Devemos garantir que leis e termos de uso estejam em compasso com os avanços tecnológicos. 

É complexo identificar se um material foi gerado por IA? 

Há pesquisas, mas estamos longe de uma solução capaz de detectar todos os tipos de conteúdo. Talvez nunca chegaremos lá. É uma corrida de gato e rato, mas é preciso disputá-la. 

Que regulação deveria existir?

É complicado criar uma regulação útil e atingível. Espero apenas que as pessoas que conheçam bem a tecnologia sejam consultadas no processo. 

Rostos sintetizados podem causar em fotos e vídeos reais o mesmo efeito que notícias falsas tiveram sobre conteúdo jornalístico? 

Sim. Existe potencial de rotulação falsa, em ambas as direções, à medida que esse tipo de tecnologia se torna conhecida. As pessoas podem chamar conteúdo real de fake e vice-versa. 

Ohad Fried, professor da Universidade Stanford Foto: Stanford

Professor da Universidade Stanford, Ohad Fried tem longa carreira dedicada ao uso de algoritmos para a produção de imagens. Em seu trabalho mais recente, ele pôs palavras na boca de pessoas em vídeos, com técnicas de deepfake.

No sistema, era possível digitar uma frase e gerar digitalmente os movimentos faciais correspondentes às palavras. Ao Estado, Fried falou sobre como se preparar para o uso da tecnologia. 

Estamos prontos para lidar com rostos gerados por inteligência artificial (IA)?

Não. Isto é, não há um bom método para detectar automaticamente todas as faces geradas por IA. Mas sua pergunta supõe que não há formas de fazer bots parecerem legítimos de uma forma que não seja usando rostos gerados por IA. É muito mais fácil baixar as fotos de alguém real na internet e usá-las em um perfil falso. O que a IA acrescenta, de fato, é a habilidade de sintetizar muitos rostos, o que é um pouco mais fácil que baixar tudo do Google. 

Como as sociedades podem se preparar para essa tecnologia?

Precisamos educar as pessoas sobre a capacidade da tecnologia e trabalhar em ferramentas capazes de determinar origem de fotos, vídeos e áudios. Devemos garantir que leis e termos de uso estejam em compasso com os avanços tecnológicos. 

É complexo identificar se um material foi gerado por IA? 

Há pesquisas, mas estamos longe de uma solução capaz de detectar todos os tipos de conteúdo. Talvez nunca chegaremos lá. É uma corrida de gato e rato, mas é preciso disputá-la. 

Que regulação deveria existir?

É complicado criar uma regulação útil e atingível. Espero apenas que as pessoas que conheçam bem a tecnologia sejam consultadas no processo. 

Rostos sintetizados podem causar em fotos e vídeos reais o mesmo efeito que notícias falsas tiveram sobre conteúdo jornalístico? 

Sim. Existe potencial de rotulação falsa, em ambas as direções, à medida que esse tipo de tecnologia se torna conhecida. As pessoas podem chamar conteúdo real de fake e vice-versa. 

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.