Um dos desdobramentos inesperados dos protestos iniciados nos EUA, após o assassinato de George Floyd, foi colocar na berlinda o reconhecimento facial. A tecnologia, em crescente desenvolvimento, levanta dúvidas sobre sua eficácia e temores sobre seus perigos quando usada por agências de segurança. Na esteira das manifestações antirracistas, três das principais companhias de tecnologia do mundo decidiram mudar a forma como pesquisam e vendem algoritmos com a tecnologia, levantando questionamentos sobre o seu futuro e os seus limites.
A fila foi puxada pela IBM, que no último dia 9 anunciou que encerrará sua divisão de reconhecimento facial. “A IBM se opõe firmemente e não tolerará o uso de nenhuma tecnologia, incluindo o reconhecimento facial, oferecida por outros fornecedores, para vigilância em massa, elaboração de perfis raciais, violações dos direitos humanos e liberdades básicas”, escreveu Arvind Krishna, presidente executivo da companhia, em uma carta endereçada a congressistas americanos. Indiano, Krishna é o primeiro líder não-branco da IBM – algo visto por analistas como crucial para a decisão da empresa.
Na sequência, Amazon e Microsoft tomaram medidas um pouco mais leves. A Amazon disse congelará por um ano a comercialização do seu programa Rekognition para departamentos de polícia dos EUA, enquanto aguarda legislação específica sobre a tecnologia. A empresa, não revelou, porém, o que acontecerá com agências de segurança que já utilizam o software.
Ao jornal americano Washington Post, a Microsoft afirmou que não comercializa a tecnologia para agências de segurança e se comprometeu a não reverter a decisão por pelo menos mais um ano, até que uma legislação federal específica seja criada. A empresa já havia sido pioneira, em 2018,a pedir regulação sobre o uso da tecnologia.
Considerado uma das principais empresas no desenvolvimento da tecnologia, o Google não comercializa seus produtos na área. “É uma tecnologia bastante delicada e por isso adotamos uma abordagem cautelosa; não vamos oferecê-la em nenhuma aplicação de uso geral enquanto não avaliamos políticas e questões técnicas em jogo”, declarou a empresa ao Estadão, por meio de nota. “Não apoiamos uma proibição desta tecnologia, mas incentivamos que existam meios de proteção robustos por meio de regulações e outras formas.”
Falhas
“Todo sistema de biometria tem falhas, que geram falsos positivos. No reconhecimento facial, isso pode resultar em problemas gravíssimos”, explica Sérgio Amadeu, professor da Universidade Federal do ABC (UFABC) e especialista em políticas públicas e inclusão digital. Isso já foi provado, por exemplo, em um experimento da União Americana de Liberdades Civis (ACLU, na sigla em inglês). Em 2018, a entidade submeteu imagens de congressistas americanos ao Rekognition, que erroneamente identificou 28 deles como procurados pela polícia. No ano passado, uma mulher inocente foi detida no Rio de Janeiro quando um sistema de reconhecimento facial a apontou como fugitiva da polícia.
Não apenas isso: outros experimentos da ACLU já demonstram que algoritmos de reconhecimento facial tendem a ter desempenho pior quando analisam rostos de negros e mulheres. “Sistemas de inteligência artificial aprendem o que a gente ensina para eles. O perigo é colocar nos dados usados por esses sistemas valores que pré-existentes, que prejudicam grupos específicos”, dizYasodara Córdova, programadora e pesquisadora da Universidade Harvard.
Sistemas de inteligência artificial, como os que identificam rostos, aprendem por meio de grandes bancos de dados. A partir disso, identificam padrões e tomam suas decisões. O problema é que nem sempre os dados são bons o suficiente para que qualquer pessoa seja tratada de maneira similar – de fato, essas informações podem acentuar problemas da sociedade. “Esses sistemas foram construídos em universidades que não tem grupos de teste com diversidade suficiente”, diz Yasodara.
É por isso que as decisões das gigantes estão profundamente ligada ao movimento Black Lives Matter. “Esses algoritmos estão inseridos num contexto racista nas agências de segurança, o que tende a reforçar essas discriminações”, explica Veridiana Alimonti, analista de políticas públicas da Electronic Frontier Foundation, entidade de defesa de direitos digitais.
Dentro do contexto das manifestações, há também temores de que o monitoramento estava sendo aplicado indiscriminadamente contra os cidadãos, o que pode levar a abusos e a violação da privacidade. “A utilização de reconhecimento facial de forma massiva viola uma série de direitos. Ela monitora movimentos nas cidades, que podem ser cruzados com outros dados e que revelam demais sobre as pessoas”, diz Veridiana.
“Isso coloca a sociedade numa situação de espaço totalitário, com vigilância ubíqua”, afirma Amadeu. Na China, por exemplo, o reconhecimento facial foi usado para rastrear e controlar os uigures, uma minoria muçulmana vista pexlo governo local como mais propensa a estar ligada a atos terroristas.
Gota no oceano
Apesar de enviar uma mensagem a legisladores e ao mercado, o que parecia um avanço pode abrir as portas para um avanço tecnológico feito às sombras. “O resultado desse recuo das gigantes é pequeno. Existem outras empresas médias e pequenas que desenvolvem soluções parecidas”, diz Amadeu.
O Wall Street Journal publicou que empresas que vendem produtos do tipo para forças policiais dos EUA, como a japonesa NEC, a Ayonix e a startup Clearview AI, não vão se afastar do mercado. Esta última, inclusive, é alvo de polêmica por construir um banco de dados com imagens retiradas de redes sociais sem o consentimento dos usuários – e tem sido investigada nos EUA.
Segundo a consultoria Market Research Future, o mercado de reconhecimento facial deve valer US$ 8 bilhões em 2022. Com o recuo das gigantes, o perigo é que seu vácuo seja preenchido por nomes obscuros, e, portanto, mais difíceis de serem fiscalizados pela sociedade.
Por outro lado, o rechaço ao uso da tecnologia não é um consenso. “Qualquer software pode apresentar erro. Desde que eles sejam solucionados e o uso da tecnologia seja responsável e dentro da legislação, não tem porque não usar”, diz o advogado Renato Opice Blum, coordenador dos cursos de proteção de dados e direito digital do Insper. “O benefício se sobrepõe a eventuais hipóteses de problemas. Se o reconhecimento facial está tirando criminosos das ruas, isso é positivo.”
Como lidar
Para evitar a ação de empresas suspeitas, Blum imagina requisítos mínimos sobre empresas que possam atuar nesse mercado. “A Autoridade Nacional de Proteção de Dados (ANPD) poderia determinar regras garantido quem pode participar. A diferença entre uma gigante e uma empresa pequena é a sua capacidade de reparo”, diz. Vale, porém, lembrar: a ANPD, que deve zelar pelo bom cumprimento da Lei Geral de Proteção de Dados, é um órgão governamental que ainda não existe.
Já que a tecnologia não será parada nem pelos músculos dos gigantes, as sociedades terão que encontrar maneiras de lidar com ela. “É preciso regulação, claro, mas só ela não vai dar conta, pois as leis ficam obsoletas muito rápido. É preciso ter novas instituições que sejam capazes de tomar conta dessas novas leis. São decisões técnicas que precisam ser tomadas”, explica Yasodara.
“Sem dúvida, o caminho é uma regulação, mas que precisará por caminhos democráticos. O processo de construção disso é tão importante quanto a nova legislação. Não é possível que uma parte do estado tenha aparatos de vigilância sem o mínimo controle”, afirma Amadeu. Sem os holofotes sob as gigantes, mas com o inevitável avanço da tecnologia, a questão que permeia o reconhecimento facial é, ao mesmo tempo, antiga e atual: “quem vigia os vigilantes?”.
Os comentários são exclusivos para assinantes do Estadão.