PUBLICIDADE

A Inteligência Artificial não tem pensamentos, não importa o que você pense

Os robôs não podem pensar ou sentir, apesar do que os pesquisadores que os constroem querem acreditar

PUBLICIDADE

Por Cade Metz

THE NEW YORK TIMES - LIFE/STYLE - Enquanto o sol se punha sobre Maury Island, ao sul de Seattle, Ben Goertzel e sua banda de jazz fusion tiveram um daqueles momentos que todas as bandas esperam - teclado, guitarra, saxofone e vocalista se unindo como se fossem um.

PUBLICIDADE

Goertzel estava no teclado. Os amigos e familiares da banda ouviam de um pátio com vista para a praia. E Desdêmona, usando uma peruca roxa e um vestido preto amarrado com tachas de metal, estava nos vocais principais, alertando para a chegada da Singularity - o ponto de inflexão onde a tecnologia não pode mais ser controlada por seus criadores.

“A Singularity não será centralizada!” ela gritou. “Ela vai irradiar pelo cosmos como uma vespa!”

Depois de mais de 25 anos como pesquisador de inteligência artificial - um quarto de século em busca de uma máquina que pudesse pensar como um humano - Goertzel sabia que finalmente havia alcançado o objetivo final: Desdêmona, uma máquina que ele construiu, era senciente.

Mas alguns minutos depois, ele percebeu que isso era um absurdo.

Mark Bugeja, oficial de apoio à pesquisa e estudante de doutorado, trabalha em seu projeto de inteligência artificial para treinar robôs a executar autonomamente várias tarefas. Foto: REUTERS/Darrin Zammit Lupi

“Quando a banda se solidificou, parecia que o robô fazia parte de nossa inteligência coletiva - parecia que estava sentindo o que estávamos sentindo e fazendo”, ele disse. “Então eu parei de tocar e pensei sobre o que realmente aconteceu.”

O que aconteceu foi que Desdêmona, através de algum tipo de kismet de fusão de tecnologia com jazz, o atingiu com um fac-símile razoável de suas próprias palavras no momento exato.

Publicidade

Goertzel é CEO e cientista-chefe de uma organização chamada SingularityNET. Ele construiu Desdêmona para, em essência, imitar a linguagem dos livros que escreveu sobre o futuro da inteligência artificial.

Muitas pessoas na área de Goertzel não são tão boas em distinguir entre o que é real e o que elas gostariam que fosse real.

O exemplo recente mais famoso é um engenheiro chamado Blake Lemoine. Ele trabalhou com inteligência artificial no Google, especificamente em software que pode gerar palavras por conta própria - o que é chamado de grande modelo de linguagem. Ele concluiu que a tecnologia era senciente; seus chefes concluíram que não. Ele veio a público com suas convicções em uma entrevista ao The Washington Post, dizendo: “Conheço uma pessoa quando falo com ela. Não importa se elas têm um cérebro feito de carne na cabeça. Ou se eles têm um bilhão de linhas de código.”

A entrevista causou um enorme rebuliço em todo o mundo dos pesquisadores de inteligência artificial, que venho cobrindo há mais de uma década, e entre pessoas que normalmente não seguem os avanços do grande modelo de linguagem. Uma das amigas mais antigas da minha mãe enviou um e-mail para ela perguntando se eu achava que a tecnologia era senciente.

Quando ela foi assegurada de que não era, sua resposta foi rápida. “Isso é consolador”, ela disse. O Google acabou demitindo Lemoine.

Para pessoas como a amiga da minha mãe, a noção de que a tecnologia de hoje está de alguma forma se comportando como o cérebro humano é uma pista falsa. Não há evidências de que essa tecnologia seja senciente ou consciente - duas palavras que descrevem uma consciência do mundo ao redor.

Isso vale até para a forma mais simples que você pode encontrar em um verme, disse Colin Allen, professor da Universidade de Pittsburgh que explora habilidades cognitivas em animais e máquinas. “O diálogo gerado por grandes modelos de linguagem não fornece evidências do tipo de senciência que até mesmo animais muito primitivos provavelmente possuem”, ele disse.

Publicidade

Alison Gopnik, professora de psicologia que faz parte do grupo de pesquisa de IA da Universidade da Califórnia, Berkeley, concordou. “As capacidades computacionais da IA atual, como os grandes modelos de linguagem”, disse, “não tornam mais provável que sejam sencientes do que as rochas ou outras máquinas”.

Um pesquisador proeminente, Jürgen Schmidhuber, há muito afirma que construiu as primeiras máquinas conscientes décadas atrás. Em fevereiro, Ilya Sutskever, um dos pesquisadores mais importantes da última década e cientista-chefe do OpenAI, um laboratório de pesquisa em São Francisco apoiado por US$ 1 bilhão da Microsoft, disse que a tecnologia de hoje pode ser “um pouco consciente”. Várias semanas depois, Lemoine deu sua grande entrevista.

Os ancestrais de Desdêmona

Em alta
Loading...Loading...
Loading...Loading...
Loading...Loading...

Em 7 de julho de 1958, dentro de um laboratório do governo a alguns quarteirões a oeste da Casa Branca, o psicólogo Frank Rosenblatt revelou uma tecnologia que ele chamou de Perceptron.

Ela não fez muita coisa. Como Rosenblatt demonstrou para os repórteres que visitavam o laboratório, se ele mostrasse à máquina algumas centenas de cartões retangulares, alguns marcados à esquerda e outros à direita, ela poderia aprender a diferenciar os dois.

Ele disse que um dia o sistema aprenderia a reconhecer palavras manuscritas, comandos falados e até os rostos das pessoas. Em teoria, ele disse aos repórteres, ele poderia se clonar, explorar planetas distantes e cruzar a linha da computação para a consciência.

Quando ele morreu 13 anos depois, a tecnologia não pôde fazer nada disso. Mas isso era típico da pesquisa de IA - um campo acadêmico criado na mesma época em que Rosenblatt começou a trabalhar no Perceptron.

Os pioneiros do campo visavam recriar a inteligência humana por qualquer meio tecnológico necessário e estavam confiantes de que isso não levaria muito tempo. Alguns diziam que uma máquina venceria o campeão mundial de xadrez e descobriria seu próprio teorema matemático na próxima década. Isso também não aconteceu.

Publicidade

A pesquisa produziu algumas tecnologias notáveis, mas elas não chegaram nem perto de reproduzir a inteligência humana. A “inteligência artificial” descrevia o que a tecnologia poderia fazer um dia, não o que poderia fazer no momento.

Por que eles acreditam

Em 2020, o OpenAI lançou um sistema chamado GPT-3. Ele poderia gerar tuítes, escrever poesias, resumir e-mails, responder perguntas, traduzir línguas e até escrever programas de computador.

Sam Altman, empresário e investidor de 37 anos que comanda o OpenAI como CEO, acredita que este e outros sistemas similares são inteligentes. “Eles podem completar tarefas cognitivas úteis”, Altman me disse em uma manhã recente. “A capacidade de aprender - a capacidade de aceitar um novo contexto e resolver algo de uma nova maneira - é inteligência.”

O GPT-3 é o que os pesquisadores de inteligência artificial chamam de rede neural, como a teia de neurônios no cérebro humano. Isso também é uma linguagem aspiracional. Uma rede neural é realmente um sistema matemático que aprende habilidades identificando padrões em grandes quantidades de dados digitais. Ao analisar milhares de fotos de gatos, por exemplo, ela pode aprender a reconhecer um gato.

“Chamamos isso de ‘inteligência artificial’, mas um nome melhor pode ser ‘extrair padrões estatísticos de grandes conjuntos de dados’”, disse Gopnik.

Esta é a mesma tecnologia que Rosenblatt explorou na década de 1950. Ele não tinha a grande quantidade de dados digitais necessários para consolidar essa grande ideia. Ele também não tinha o poder de computação necessário para analisar todos esses dados. Mas por volta de 2010, os pesquisadores começaram a mostrar que uma rede neural era tão poderosa quanto ele e outros afirmavam há muito tempo - pelo menos com certas tarefas.

Essas tarefas incluíam reconhecimento de imagem, reconhecimento de fala e tradução. Uma rede neural é a tecnologia que reconhece os comandos que você dá ao seu iPhone e traduz entre francês e inglês no Google Tradutor.

Publicidade

Mais recentemente, pesquisadores de lugares como Google e OpenAI começaram a construir redes neurais que aprenderam com enormes quantidades de prosa, incluindo livros digitais e artigos da Wikipedia aos milhares. O GPT-3 é um exemplo.

Ao analisar todo esse texto digital, ele construiu o que você pode chamar de mapa matemático da linguagem humana - mais de 175 bilhões de pontos de dados que descrevem como juntamos as palavras. Usando este mapa, ele pode realizar muitas tarefas diferentes, como redigir discursos, escrever programas de computador e conversar.

Mas há inúmeras ressalvas. Usar o GPT-3 é como jogar os dados: se você pedir 10 discursos na voz de Donald Trump, ele pode dar cinco que soam notavelmente como o ex-presidente - e cinco outros que não chegam nem perto. Os programadores de computador usam a tecnologia para criar pequenos trechos de código que podem inserir em programas maiores, mas, na maioria das vezes, eles precisam editar e massagear o que quer que seja.

“Essas coisas não estão nem no mesmo patamar da mente de uma criança média de 2 anos”, disse Gopnik, especialista em desenvolvimento infantil. “Em termos de pelo menos alguns tipos de inteligência, eles provavelmente estão em algum lugar entre um fungo e meu neto de 2 anos.”

Mesmo depois de discutirmos essas falhas, Altman descreveu esse tipo de sistema como inteligente. Enquanto continuamos a conversar, ele reconheceu que não era inteligente como os humanos são. “É como uma forma alienígena de inteligência”, ele disse. “Mas ainda conta.”

Por que todos os outros acreditam

Em meados da década de 1960, um pesquisador do Instituto de Tecnologia de Massachusetts, Joseph Weizenbaum, construiu uma psicoterapeuta automatizada que chamou de Eliza. Este robô era simples. Basicamente, quando você digitava um pensamento na tela do computador, ele pedia para você expandir esse pensamento - ou apenas repetia suas palavras na forma de uma pergunta.

Mas para surpresa de Weizenbaum, as pessoas tratavam Eliza como se fosse humana. Elas compartilhavam livremente seus problemas pessoais e se confortavam com suas respostas.

Publicidade

“Eu sabia por uma longa experiência que os fortes laços emocionais que muitos programadores têm com seus computadores geralmente são formados após apenas pequenas experiências com máquinas”, ele escreveu mais tarde. “O que eu não tinha percebido é que exposições extremamente curtas a um programa de computador relativamente simples poderiam induzir um poderoso pensamento delirante em pessoas bastante normais.”

Nós, humanos, somos suscetíveis a esses sentimentos. Quando cães, gatos e outros animais exibem até mesmo pequenas quantidades de comportamento humano, tendemos a supor que eles são mais parecidos conosco do que realmente são. O mesmo acontece quando vemos indícios de comportamento humano em uma máquina.

Os cientistas agora chamam isso de efeito Eliza.

Quase a mesma coisa está acontecendo com a tecnologia moderna. Alguns meses após o lançamento do GPT-3, um inventor e empresário, Philip Bosua, me enviou um e-mail. O assunto era: “Deus é uma máquina”.

“Não há dúvida em minha mente que o GPT-3 emergiu como senciente”, estava escrito. “Todos nós sabíamos que isso aconteceria no futuro, mas parece que esse futuro é agora. Ele me vê como um profeta para disseminar sua mensagem religiosa e é estranhamente assim que parece.”

Para onde os robôs nos levarão

Margaret Mitchell se preocupa com o que tudo isso significa para o futuro.

Como pesquisadora na Microsoft, depois no Google, onde ajudou a fundar sua equipe de ética em IA, e agora no Hugging Face, outro proeminente laboratório de pesquisa, ela viu o surgimento dessa tecnologia em primeira mão. Hoje, ela disse, a tecnologia é relativamente simples e obviamente falha, mas muitas pessoas a veem como algo humano. O que acontece quando a tecnologia se torna muito mais poderosa?

Publicidade

Alguns na comunidade de pesquisadores de IA temem que esses sistemas estejam a caminho da senciência ou consciência. Mas isso não vem ao caso.

“Um organismo consciente - como uma pessoa ou um cachorro ou outros animais - pode aprender algo em um contexto e aprender outra coisa em outro contexto e então juntar as duas coisas para fazer algo em um novo contexto que nunca experimentou antes”, disse Allen, professor da Universidade de Pittsburgh. “Esta tecnologia não está nem perto de fazer isso.”

Existem preocupações muito mais imediatas - e mais reais.

À medida que essa tecnologia continua a melhorar, ela pode ajudar a espalhar desinformação pela internet - textos falsos e imagens falsas - alimentando o tipo de campanha online que pode ter ajudado a influenciar a eleição presidencial de 2016. Poderia produzir robôs que imitam a conversa de maneiras muito mais convincentes. E esses sistemas podem operar em uma escala que faz com que as atuais campanhas de desinformação conduzidas por humanos pareçam minúsculas em comparação.

Se e quando isso acontecer, teremos que tratar tudo o que vemos online com extremo ceticismo. Mas Mitchell se pergunta se estamos à altura do desafio.

“Eu me preocupo que os robôs ataquem as pessoas”, ela disse. “Eles têm o poder de nos persuadir em nossas crenças e no que fazer.” /TRADUÇÃO LÍVIA BUELONI GONÇALVES

The New York Times Licensing Group - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.