EXCLUSIVO PARA ASSINANTES
Foto do(a) coluna

Professor Livre Docente de inteligência artificial na Faculdade de Saúde Pública da USP

Opinião|Drama na OpenAI traz alerta sobre o risco existencial de uma super inteligência artificial

Sam Altman não estaria dando a devida atenção aos riscos da tecnologia

PUBLICIDADE

Foto do author Alexandre  Chiavegatto Filho

Existem poucos consensos entre pesquisadores de inteligência artificial (IA). Um deles é que eventualmente será possível desenvolver um algoritmo que conseguirá tomar decisões melhores do que humanos em todas as áreas, a Inteligência Artificial Geral (IAG).

Esse algoritmo terá a capacidade de se auto-aprimorar, podendo mudar o seu código para se tornar cada vez mais inteligente e ultrapassando em várias ordens de magnitude a capacidade cognitiva de seres humanos, um momento conhecido na área como a Singularidade.

Sam Altman saiu e voltou para a OpenAI em cinco dias  Foto: John G. Mabanglo/ EFE

PUBLICIDADE

As consequências práticas da chegada dessa IAG são imprevisíveis, primeiramente porque nós humanos não somos inteligentes o suficiente para antecipar detalhadamente as suas possíveis motivações. Aqui começam as principais divergências atuais entre os pesquisadores de inteligência artificial.

Dos três principais pioneiros de IA e vencedores do prêmio Turing de 2018, Geoffrey Hinton, Yoshua Bengio e Yann Lecun, apenas o último está otimista com a chegada da IAG. O cientista-chefe de IA da Meta acha que uma superinteligência não terá necessariamente ambições destrutivas ou de poder, assim como muitos serem biológicos não possuem, e caso tenha será possível controlar e direcionar seus impulsos maliciosos.

Yoshua Bengio e Geoffrey Hinton estão menos otimistas. O primeiro considera que por mais que os algoritmos atuais não possuam riscos existenciais, os avanços dos próximos anos podem levar a consequências catastróficas. Hinton, por sua vez, tem declarado que o risco existencial de IA é um problema ainda mais urgente do que as mudanças climáticas.

Publicidade

A realidade é que já não é mais possível parar a marcha do desenvolvimento da superinteligência. Caso os países desenvolvidos se comprometam a diminuir a velocidade dos avanços recentes na área, nada garante que ditaduras e regimes fundamentalistas farão o mesmo, com consequências potencialmente desastrosas.

A solução virá do próprio desenvolvimento técnico e científico da área. Com a chegada de mais pesquisadores de segurança da IAG, será possível apontar os caminhos necessários para que essa futura superinteligência se comprometa com os valores morais e éticos dos seres humanos. Precisamos de muitos mais pesquisadores de IA, nunca menos.

Na sexta-feira, 17, Sam Altman, CEO da OpenAI, foi demitido pelo conselho da empresa, em uma saga que durou cinco dias e terminou com a sua readmissão nesta quarta, 22. Até agora foram dadas poucas explicações sobre o motivo, mas as movimentações recentes do ex-CEO estavam sendo na direção de aumentar o tamanho da empresa e acelerar o ritmo das novas descobertas.

Como a missão da empresa é “garantir que a IAG beneficie toda a humanidade”, circulam rumores na imprensa dos EUA de que o motivo havia sido a pouca atenção que Altman estava dando aos riscos de uma IAG. Essa possibilidade, por menor que seja, é assustadora. Ainda não estamos prontos para a chegada da superinteligência artificial.

Opinião por Alexandre Chiavegatto Filho

Professor Livre Docente de inteligência artificial na Faculdade de Saúde Pública da USP

Comentários

Os comentários são exclusivos para assinantes do Estadão.