‘Busca por super IA não pode ser tratada como criação da bomba atômica’, diz ex-chefe do Google

Eric Schmidt publica documento que planeja uma estratégia global para o desenvolvimento de IAs poderosas

PUBLICIDADE

Por Beatrice Nolan

O ex-CEO do Google, Eric Schmidt, o CEO da Scale AI, Alexandr Wang, e o diretor do Center for AI Safety, Dan Hendrycks, fizeram um alerta sobre a corrida global para criar uma inteligência artificial (IA) superinteligente.

PUBLICIDADE

Em um novo artigo intitulado Superintelligence Strategy (Estratégia de superinteligência, em tradução livre), Schmidt e seus coautores argumentam que os EUA não devem buscar o desenvolvimento de inteligência artificial geral (AGI) por meio de um método como o do Projeto Manhattan, que contou com apoio do governo americano para desenvolver a bomba atômica.

O receio é que uma corrida desenfreada para criar uma IA superinteligente possa levar a conflitos globais perigosos entre as superpotências, muito parecidos com a corrida armamentista nuclear.

Eric Schmidt lançou estratégia global para super IA  Foto: JD Lasica / Pleasanton, CA, US

“O Projeto Manhattan pressupõe que os rivais aceitarão um desequilíbrio duradouro em vez de agir para evitá-lo”, escreveram os coautores. “O que começa como um impulso para uma super arma e controle global corre o risco de provocar contramedidas hostis e aumentar as tensões, minando assim a própria estabilidade que a estratégia pretende garantir”, diz o documento.

Publicidade

As ambições de Trump em relação à IA

O artigo surge no momento em que os formuladores de políticas dos EUA consideram um projeto de IA em grande escala, financiado pelo Estado, para competir com os esforços de IA da China.

No ano passado, uma comissão do congresso dos EUA propôs um esforço no estilo do “Projeto Manhattan” para financiar o desenvolvimento de sistemas de IA com inteligência sobre-humana, seguindo o modelo do programa de bomba atômica dos Estados Unidos na década de 1940.

Desde então, o governo Trump anunciou um investimento de US$ 500 bilhões em infraestrutura de IA, chamado de “Projeto Stargate”, e reverteu as regulamentações de IA criadas pelo governo anterior.

No início deste mês, o Secretário de Energia dos EUA, Chris Wright, também pareceu promover a ideia ao dizer que o país estava “no início de um novo Projeto Manhattan” e que, com a liderança do Presidente Trump, “os Estados Unidos vencerão a corrida global da IA”.

Publicidade

Corrida global

Os autores argumentam que o desenvolvimento da IA deve ser tratado com extrema cautela, e não em uma corrida para superar os rivais globais.

O artigo, publicado pelo Center for a New American Security, descreve os riscos de abordar o desenvolvimento da IA como uma batalha pelo domínio do tudo ou nada.

Schmidt e seus coautores argumentam que, em vez de uma corrida de alto risco, a IA deve ser desenvolvida por meio de pesquisas amplamente distribuídas com a colaboração de governos, empresas privadas e universidades. Eles enfatizam que a transparência e a cooperação internacional são fundamentais para garantir que a IA beneficie a humanidade em vez de se tornar uma força incontrolável.

“Gerenciar os riscos da IA exige uma coordenação cuidadosa, não uma aceleração imprudente”, afirmam.

Publicidade

O conceito de mau funcionamento da IA

Os autores sugerem um novo conceito - Mutual Assured AI Malfunction (Mau funcionamento de IA com garantia assegurada, ou MAIM, na sigla em inglês) - modelado com base na Mutually Assured Destruction (destruição mútua assegurada, ou MAD, na sigla em inglês) da corrida armamentista nuclear.

“Assim como as nações desenvolveram estratégias nucleares para garantir sua sobrevivência, agora precisamos de uma estratégia coerente de superinteligência para navegar em um novo período de mudanças transformadoras”, escreveram os autores.

“Introduzimos o conceito de Mutual Assured AI Malfunction (MAIM): um regime de dissuasão semelhante à destruição nuclear mútua assegurada, em que a tentativa agressiva de qualquer estado de dominar unilateralmente a IA é recebida com sabotagem preventiva pelos rivais”, disseram eles.

O documento também sugere que os países se envolvam com a não proliferação e a dissuasão, da mesma forma que fazem com as armas nucleares.

Publicidade

“Em conjunto, a estrutura de três partes de dissuasão, não proliferação e competitividade delineia uma estratégia robusta para a superinteligência nos próximos anos”, disseram eles.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

c.2024 Fortune Media IP Limited

Distribuído por The New York Times Licensing Group

Publicidade

Comentários

Os comentários são exclusivos para cadastrados.