Na terça-feira, 4, o Google atualizou suas diretrizes éticas sobre inteligência artificial (IA), removendo o compromisso de não aplicar a tecnologia a armas ou vigilância.
Os princípios de IA da empresa incluíam anteriormente uma seção que listava quatro “Aplicações que não buscaremos”. Até a última semana, isso incluía armas, vigilância, tecnologias que “causam ou podem causar danos gerais” e casos de uso que violam os princípios do direito internacional e dos direitos humanos, de acordo com uma cópia hospedada pelo Internet Archive.

Um porta-voz do Google se recusou a responder a perguntas específicas sobre suas políticas de armas e vigilância, mas se referiu a uma postagem de blog publicada na terça-feira pelo chefe de IA da empresa, Demis Hassabis, e seu vice-presidente sênior de tecnologia e sociedade, James Manyika.
Os executivos escreveram que o Google estava atualizando seus princípios de IA porque a tecnologia havia se tornado muito mais difundida e havia a necessidade de empresas sediadas em países democráticos atenderem a clientes governamentais e de segurança nacional.
“Está ocorrendo uma competição global pela liderança da IA em um cenário geopolítico cada vez mais complexo. Acreditamos que as democracias devem liderar o desenvolvimento da IA, guiadas por valores fundamentais como liberdade, igualdade e respeito aos direitos humanos”, escreveram Hassabis e Manyika. “E acreditamos que empresas, governos e organizações que compartilham esses valores devem trabalhar juntos para criar uma IA que proteja as pessoas, promova o crescimento global e apoie a segurança nacional.”
A página atualizada dos princípios de IA do Google inclui disposições que dizem que a empresa usará supervisão humana e receberá feedback para garantir que sua tecnologia seja usada de acordo com “princípios amplamente aceitos de direito internacional e direitos humanos”. Os princípios também dizem que a empresa testará sua tecnologia para “mitigar resultados não intencionais ou prejudiciais”.
Hassabis ingressou no Google em 2014, depois que a empresa adquiriu a DeepMind, a startup de IA que ele cofundou. Ele disse em uma entrevista em 2015 que os termos da aquisição estipulavam que a tecnologia da DeepMind nunca seria usada para fins militares ou de vigilância.
Os princípios do Google que restringem os casos de uso de segurança nacional para IA o tornaram uma exceção entre os principais desenvolvedores de IA.
No final do ano passado, a OpenAI, fabricante do ChatGPT, disse que trabalharia com a fabricante militar Anduril para desenvolver tecnologia para o Pentágono. A Anthropic, que oferece o chatbot Claude, anunciou uma parceria com a Palantir, empresa contratada para a defesa, para ajudar as agências de inteligência e defesa dos EUA a acessar versões do Claude por meio do Amazon Web Services.
As gigantes tecnológicas rivais do Google, Microsoft e Amazon, há muito tempo fazem parcerias com o Pentágono.
“O anúncio do Google é mais uma evidência de que a relação entre o setor de tecnologia dos EUA e o [Departamento de Defesa] continua a se estreitar, incluindo as principais empresas de IA”, disse Michael Horowitz, professor de ciências políticas da Universidade da Pensilvânia que trabalhou anteriormente com tecnologias emergentes para o Pentágono.
Inteligência artificial, robótica e tecnologias relacionadas são cada vez mais importantes para as forças armadas dos EUA, disse ele, e o governo dos EUA tem trabalhado com empresas de tecnologia para entender como essa tecnologia pode ser usada de forma responsável. “Faz sentido que o Google tenha atualizado sua política para refletir a nova realidade”, disse Horowitz.
Lilly Irani, professora da Universidade da Califórnia em San Diego e ex-funcionária do Google, disse que as declarações dos executivos na terça-feira não são novas.
O ex-CEO do Google, Eric Schmidt, alimentou durante anos o temor de que os Estados Unidos corressem o risco de serem ultrapassados pela China na área de IA, disse Irani, e os princípios originais de IA da empresa também afirmavam que ela respeitaria o direito internacional e os direitos humanos. “Mas vimos esses limites serem quebrados rotineiramente pelo estado americano”, disse ela. “Esta é uma oportunidade para nos lembrarmos do vazio das promessas do Google.”
A mudança de política do Google é uma mudança da empresa alinhada com uma visão do setor de tecnologia, incorporada pelo principal conselheiro do presidente Donald Trump, Elon Musk, de que as empresas devem trabalhar a serviço dos interesses nacionais dos EUA. Isso também segue os movimentos dos gigantes da tecnologia para negar publicamente seu compromisso anterior com a igualdade racial e de gênero e com a diversidade da força de trabalho, políticas às quais o governo Trump se opõe.
O gigante das buscas também estava entre as empresas de tecnologia e os executivos que fizeram doações milionárias ao comitê de posse de Trump. O CEO do Google, Sundar Pichai, estava entre os líderes de tecnologia que receberam assentos de destaque nas cerimônias do dia da posse.
Recentemente, o Google e a tecnologia de IA estiveram no centro das tensões geopolíticas entre os Estados Unidos e a China. Pouco depois que as tarifas de Trump sobre as importações chinesas entraram em vigor na terça-feira, Pequim anunciou uma investigação antitruste sobre o Google, juntamente com tarifas retaliatórias sobre alguns produtos americanos.
Leia também
Na semana passada, a startup chinesa DeepSeek alimentou o temor de que os Estados Unidos estivessem perdendo sua liderança em IA depois de lançar uma versão gratuita de um aplicativo de assistente de IA semelhante ao ChatGPT da OpenAI.
O Google publicou seus princípios de IA pela primeira vez em 2018, depois que os funcionários protestaram contra um contrato com o Pentágono que aplicava os algoritmos de visão computacional do Google para analisar imagens de drones. Milhares de funcionários assinaram uma carta aberta ao CEO do Google que dizia: “Acreditamos que o Google não deveria estar no negócio da guerra”.
Além de introduzir os princípios de IA, o Google também optou por não renovar o contrato com o Pentágono, conhecido como Projeto Maven.
Os investidores e executivos por trás do setor de defesa em rápida expansão do Vale do Silício frequentemente invocam a resistência dos funcionários do Google contra o Project Maven como um ponto de virada no setor.
Alguns funcionários do Google também protestaram contra um contrato de computação em nuvem em andamento que a empresa tem com o governo de Israel, alegando que a tecnologia de IA do Google poderia contribuir para políticas que prejudicam os palestinos. O Post informou recentemente que documentos internos mostram que o Google forneceu ao Ministério da Defesa de Israel e às Forças de Defesa de Israel maior acesso às suas ferramentas de IA depois que o Hamas atacou Israel em 7 de outubro de 2023.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.