Inteligência artificial será capaz de se replicar sem ajuda humana até 2028, diz CEO

Dario Amodei prevê que IAs podem representar risco militar e geopolítico em futuro próximo

PUBLICIDADE

Foto do author Alice Labate
Por Alice Labate
Atualização:

O CEO da startup Anthropic, Dario Amodei, lançou um alerta que parece cena de cinema durante uma entrevista, na sexta-feira, 12, ao jornalista Ezra Klein, do The New York Times, sobre o futuro das inteligências artificiais (IA). Segundo Amodei, entre 2025 e 2028, as IAs poderão alcançar um nível de autonomia que possibilitará sua sobrevivência e replicação, representando assim um risco significativo para a segurança geopolítica e militar global.

Atualmente, a Anthropic define níveis de segurança para IAs, identificados pela sigla ASL. Amodei sugere que estamos no nível 2, onde os modelos de linguagem já podem fornecer informações perigosas, como a construção de armas biológicas, por exemplo. Contudo, ele ressalta que essas informações ainda são pouco confiáveis e representam um risco relativamente baixo.

CEO da Anthropic alerta para avanços perigosos das IAs até 2028 Foto: Dado Ruvic/Reuters

PUBLICIDADE

Porém, a preocupação aumenta quando se considera o potencial alcançado no nível 3, que poderá ser atingido já no próximo ano. Neste estágio, o risco de uma catástrofe seria consideravelmente maior, com a possibilidade de utilização dessas tecnologias em armas biológicas e cibernéticas.

Além disso, Amodei destaca que o nível 4, ainda especulativo, poderia trazer características como autonomia, o que inclui capacidade independente de reprodução de sistemas, e habilidade de persuasão. Ele estima que modelos com essa classificação poderão surgir entre 2025 e 2028, o que levanta questões sérias sobre a segurança global diante do uso militar dessas tecnologias.

Diante desse cenário, o CEO enfatizou a importância de monitorar de perto o desenvolvimento e a aplicação das IAs, especialmente considerando o potencial de alguns estados em aumentar suas capacidades militares com essa tecnologia.

Com investimentos de gigantes como Amazon e Google, a Anthropic lançou seu próprio modelo de linguagem, o Claude - a startup afirma que desenvolve a tecnologia de maneira mais responsável que a OpenAI (os fundadores da Anthropic são dissidentes da dona do ChatGPT). A IA da Anthropic já está em sua terceira versão, desde março deste ano.

*Alice Labate é estagiária sob supervisão do editor Bruno Romani

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.