Inteligência artificial cria avatares de pele clara mesmo para pessoas negras

Metaverso, web3 e inteligências artificiais devem continuar surgindo, mas novas tecnologias não podem repetir padrões anteriores

PUBLICIDADE

colunista convidado
Foto do author Amanda Graciano
Por Amanda Graciano
Atualização:

Na última semana, as minhas redes sociais foram tomadas por fotos de avatares das minhas conexões geradas por um aplicativo, o Lensa.

PUBLICIDADE

O app em questão possui a proposta de usar as fotos dos usuários como base para criar ilustrações um tanto realistas, tudo isso usando inteligência artificial. Em outras palavras, similar a um pintor, um computador “desenha” novas imagens suas, mas de forma muito mais rápida e, claro, viral.

As fotos são bem interessantes, mas um debate se instaurou. Se observarmos bem, boa parte das imagens geradas seguem um único padrão estético: pela clara, corpos magros, traços do rosto afinados. Ou seja, se você possui a pele negra, o aplicativo certamente clareou a pele do seu avatar e assim por diante.

Mas se a inteligência artificial está usando a imagem de uma pessoa negra, por que ela repete esse único padrão?

A base de dados não é tão diversa assim e a forma como a inteligência artificial foi treinada fez com que ela replique o que aprendeu. Se foi treinada usando um padrão estético europeu, a tendência é que ela repita esse padrão sempre, mesmo recebendo inputs diferentes.

Queria poder dizer que esta é a única aplicação da inteligência artificial que precisa ser discutida, mas outras aplicações incorrem no mesmo problema: reconhecimento facial, moderação de conteúdo, chatbots, escore de crédito dentre outros.

Uma pesquisa liderada por Joy Buolamwini, pesquisadora do Media Lab do Instituto de Tecnologia de Massachusetts (MIT, na sigla em inglês), fala sobre o viés do reconhecimento facial e das altas taxas de erro com relação à cor da pele e ao gênero. Ou seja, apesar da possibilidade que a tecnologia tem de reconhecer pessoas de forma rápida, ela ainda reconhece pessoas de etnias diferentes com uma alta taxa de erro — são os falsos positivos. Ao redor do mundo, diversos movimentos alertam sobre o uso de máquinas e sistemas que replicam resultados discriminatórios na sociedade.

Publicidade

Existem muitos outros exemplos que reforçam o quão problemático é o viés algorítmico e suas implicações, mas você já parou para pensar no tamanho do mercado que está sendo atendido de forma parcial ou não atendido? De quanto dinheiro estamos falando?

Em 2023, o mercado seguirá falando de metaverso, Web3, inteligência artificial e introduzindo novas tecnologias. Resta saber se irão fazê-lo pensando no mercado em toda a sua totalidade e diversidade ou seguirão repetindo o mesmo padrão.

Comentários

Os comentários são exclusivos para assinantes do Estadão.