PUBLICIDADE

Novo modelo de inteligência artificial, GPT-3 é um escritor hábil, mas tropeça na lógica

Sistema criado por ONG fundada por Elon Musk avança na criação automática de textos, mas falta de bom senso do sistema lembra que estamos longe de máquinas capazes de pensar por si

Foto do author Bruno Romani
Por Bruno Romani
Atualização:
Sistema é capaz de escrever textos longos e informativos, mas comete erros de lógica que crianças não fariam Foto: OpenAI/Reuters

Talvez robôs não sonhem com ovelhas elétricas, como perguntava o escritor americano de ficção científica Philip K. Dick em seu livro mais conhecido. Mas um avanço recente no campo da inteligência artificial (IA) talvez levasse Dick a crer que máquinas sonham com palavras. Em maio, a OpenAI, uma organização sem fins lucrativos fundada por Elon Musk em 2015, anunciou o mais potente sistema de IA para produção e compreensão de linguagem escrita, chamado de GPT-3 (sigla em inglês para “transformador de pré-treinamento generativo 3”). A euforia inicial fez muita gente pensar que era o fim da linha para escritores e, talvez, até mesmo repórteres. Mas, ao longo dos últimos meses, cientistas estão tentando entender o impacto do avanço e as limitações que se escondem por trás da histeria. 

PUBLICIDADE

Como outros modelos geradores de linguagem natural, isto é, capazes de escrever textos, a GPT-3 analisou textos de diferentes fontes, como blogs, livros, sites e artigos na Wikipédia. A partir dos escritos, identificou padrões. Ao final de meses de treinamento, o modelo tinha mapeado 175 bilhões de parâmetros – isto é, número de representações matemáticas que identificam um padrão ou estilo de escrita. É um número assombroso: a GPT-2, geração anterior do modelo, tinha 1,75 bilhão de parâmetros. A versão mais avançada do Bert, um sistema de IA utilizado como base da ferramenta de buscas do Google, tem 340 milhões de parâmetros. 

Sistemas mais simples de linguagem costumam ser bons em tarefas bem específicas. Alguns são bons para fazer resumos de texto. Outros, em classificá-los. Há ainda aqueles capazes de gerar texto, como faz o Google quando tenta antecipar o que o usuário busca. O grande banco de dados da GPT-3 permite que o sistema realize com excelência todas as tarefas. Mais importante: a quantidade de dados fez com que ele aprendesse nuances de escrita, o que permite não apenas a criação de textos originais, mas também a emulação de estilos. É como se o autocompletar do Google tivesse sido turbinado de maneiras improváveis.

“O avanço é muito grande em termos científicos. Na história da ciência, é algo que acontece em intervalos de séculos”, explica Anderson Soares, coordenador do Centro de Excelência em Inteligência Artificial (CEIA) do Estado de Goiás. Para ele, a grande revolução da GPT-3 “está no volume de dados usados em sua construção”.

Uma ferramenta dessas poderia ser usada em diversas atividades: análise de documentos jurídicos e sugestão de soluções, produção de textos em contextos variados e aprofundamento de sistemas de buscas. Além disso, a GPT-3 aprendeu também a programar sites e apps – afinal, trata-se de uma atividade que também utiliza a combinação de símbolos, o suficiente para lidar com a maioria das linguagens de programação. Um modelo como esse poderia inclusive colocar assistentes virtuais, como a Alexa, da Amazon, em outro patamar de funcionamento. 

Seria esse o caminho para uma inteligência artificial geral, como os sistemas que aparecem na ficção científica, capazes de demonstrar consciência e inteligência no nível de um humano? Alto lá, dizem os especialistas. “Existem três tipos de IA: a estreita, a ampla e a geral. A GPT-3 é um passo entre sistemas estreitos, que só fazem tarefas específicas, para a ampla”, explica Fernando Osório, professor da USP São Carlos. Em outras palavras, a GPT-3 está longe de chegar ao nível do sistema de 2001: Uma Odisseia no Espaço. Não é só: para muitos pesquisadores, talvez as máquinas nunca cheguem lá.

Ilusionismo

Publicidade

O abismo entre a GPT-3 e uma IA geral é que apesar da sofisticação, o novo sistema não sabe o que fala. É possível dizer que ela é um escrivão hábil: pode produzir qualquer tipo de texto, mas também pode cometer bobagens ao ignorar semântica, contexto, psicologia e até leis da física. Ao sistema, falta aquilo que nos torna humanos: bom senso. “A GPT-3 não entende palavras como os humanos. É um sistema sofisticado de repetição, que responde apropriadamente na maioria das vezes, pois teve muitos exemplos”, explica Renata Vieira, investigadora principal convidada na Universidade de Évora (Portugal). 

A revista MIT Technology Review conduziu alguns experimentos que mostravam as fraquezas da GPT-3. Questionado sobre o que deveria ser feito para fazer uma mesa passar por um batente estreito, o sistema sugeriu serrar a porta pela metade e remover a metade superior (?). Para um advogado que manchou seu terno (suit, em inglês), o sistema sugeriu que ele fosse ao tribunal com um traje de banho (bathing suit)

Os experimentos mostram falhas de raciocínio lógico, ignorando leis da física, convenções sociais e outros fatores facilmente consideráveis até por crianças. Diante dos erros, até o cofundador da OpenAI, Sam Altman, criticou o entusiasmo em torno da criação da ONG. “O hype é exagerado. O sistema é impressionante, mas tem sérias fraquezas”, afirmou.

Sam Altman, cofundador da OpenAI Foto: Ian C. Bates/The New York Times

Caixa fechada

CONTiNUA APÓS PUBLICIDADE

Mais do que as falhas, porém, a maior questão em torno da GPT-3 é que quase ninguém pode investigar as origens dessas falhas. Apesar do nome, a OpenAI tem sido bastante fechada em relação à GPT-3. O acesso ao sistema foi liberado a poucas pessoas no mundo por meio de APIs, ferramentas que permitem criar funcionalidades com o modelo, mas que não oferecem um exame profundo sobre seu funcionamento. 

“Falta muito ‘open’ na OpenAI. Não se encontra detalhamento descritivo e profundo do que está sendo feito nesse projeto”, afirma Fábio Gandour, que liderou por dez anos o laboratório de pesquisas da IBM no Brasil. Tentar replicar um modelo como o da GPT-3 fora dos domínios de grandes empresas é quase impossível. Estima-se que apenas o custo de energia para treinar o sistema tenha girado em torno de US$ 4,6 milhões. 

Ao lançar a GPT-3, a OpenAI citou os perigos do sistema como motivo para não torná-lo público. Os pesquisadores identificaram vieses racistas e sexistas no modelo que precisam ser solucionados antes de permitir seu uso geral. Afinal, ao aprender com tudo o que há na internet, a IA registrou um triste retrato de onde a humanidade se encontra. Além disso, uma ferramenta geradora de textos poderia se tornar uma potente fábrica de criação e disseminação de informações falsas.

Publicidade

Mas, aparentemente, nem todas as intenções são nobres. A OpenAI planeja explorar comercialmente o modelo – já existem planos de assinatura que variam de US$ 100 a US$ 400, além de planos específicos para uso comercial em escala sem preços divulgados. Em setembro, a Microsoft, que já havia investido US$ 1 bilhão na OpenAI em 2019, anunciou que fechou um contrato para uso exclusivo da GPT-3 em seus produtos. A empresa foi procurada pela reportagem, mas não ofereceu porta-vozes para entrevista.

“Não tornar pública uma ferramenta com vieses é importante. Mas não é só isso. Há interesses comerciais. A pílula foi um pouco dourada na divulgação”, afirma Renata. A OpenAI também foi procurada pela reportagem, mas, dessa vez, não conseguiu produzir nenhuma palavra – disse que não teria representantes para falar. Apesar de promissora, a GPT-3 talvez tenha feito muito barulho por data. E o resto é silêncio. 

Comentários

Os comentários são exclusivos para assinantes do Estadão.