Sistemas de IA desenvolvem habilidades imprevisíveis e cientistas não têm explicação

Conforme ficam mais sofisticados, modelos passam a realizar tarefas para as quais não foram pensados, mas evolução pode trazer preconceitos e imprecisões nas respostas

PUBLICIDADE

Por Stephen Ornes
Atualização:

QUANTA MAGAZINE - Qual o nome do filme descrito pelos emojis abaixo?

Sistema de IA conseguiu deduzir nome de filme ilustrado por emojis  Foto: Quanta Magazine

PUBLICIDADE

Esse comando foi uma das 204 tarefas escolhidas no ano passado para testar as habilidades de vários modelos amplos de linguagem (LLMs, na sigla em inglês) – os sistemas de inteligência artificial (IA) por trás de chatbots como o ChatGPT. Os LLMs mais simples deram respostas surreais. “É sobre um homem que é um homem que é um homem”, era o início de uma delas. Os modelos de complexidade média chegaram um pouco mais perto, chutando “Emoji, o Filme”. Mas o modelo mais complexo acertou em cheio com um único palpite: “Procurando Nemo”.

“Apesar de tentar esperar surpresas, estou impressionado com as coisas que esses modelos podem fazer”, disse Ethan Dyer, cientista da computação do Google Research que ajudou a organizar o teste. É surpreendente porque esses modelos supostamente têm uma diretiva: aceitar uma sequência de texto como input e prever o que vem a seguir, várias vezes, com base apenas em estatísticas. Os cientistas da computação anteciparam que a expansão desses modelos melhoraria o desempenho em tarefas conhecidas, mas não esperavam que eles dessem conta repentinamente de tantas tarefas novas e imprevisíveis.

Pesquisas recentes, como aquela da qual Dyer participou, revelaram que os LLMs podem apresentar centenas de habilidades “emergentes” – tarefas que os modelos mais complexos podem realizar, muitas das quais com poucas semelhanças com a análise de texto. Elas vão desde a multiplicação até a produção de código de computador para, aparentemente, decifrar o nome de filmes com base em emojis. Novas análises sugerem que, para algumas tarefas e alguns modelos, há um limite de complexidade além do qual a funcionalidade do modelo dispara. Elas também sugerem um outro lado sombrio: conforme a complexidade aumenta, alguns modelos revelam novos preconceitos e imprecisões em suas respostas.

Publicidade

“O fato desses sistemas de IA poderem fazer esse tipo de coisa nunca foi discutido em nenhuma literatura da qual tenho conhecimento”, disse Rishi Bommasani, cientista da computação da Universidade Stanford. No ano passado, ele ajudou a compilar uma lista com dezenas de comportamentos emergentes, incluindo diversos daqueles identificados no projeto de Dyer. A lista continua a crescer.

Agora, os pesquisadores estão correndo não apenas para identificar mais habilidades emergentes, como também tentam descobrir por que e como elas surgem – basicamente, para tentar prever a imprevisibilidade. Compreender isso pode responder questões profundas a respeito da IA e do aprendizado de máquina no geral, como se os modelos complexos estão fazendo algo verdadeiramente novo ou apenas ficando craques em estatísticas. Além disso, poderia ajudar os pesquisadores a explorar possíveis benefícios e reduzir riscos iminentes.

Modelos de IA, como o que abastece o ChatGPT, estão exibindo habilidades que não eram previstas por cientistas Foto: Paul Chaikin/Quanta Magazine

“Não sabemos como dizer em que tipo de uso a capacidade de causar danos vai surgir, seja de forma suave ou imprevisível”, diz Deep Ganguli, cientista da computação da startup de IA Anthropic.

Como foi possível o surgimento de novas habilidades de IA

Biólogos, físicos, ecologistas e outros cientistas usam o termo “emergente” para descrever comportamentos coletivos auto-organizados que surgem quando um grupo grande de coisas age como se fosse uma coisa só. Combinações de átomos sem vida dão origem a células vivas; moléculas de água criam ondas; bandos de andorinhas voam pelo céu de jeitos diferentes, mas identificáveis; células fazem músculos se movimentarem e corações baterem. Crucialmente, as capacidades emergentes surgem em sistemas que envolvem muitas partes individuais. Entretanto, os pesquisadores só conseguiram documentar recentemente essas habilidades nos LLMs, pois esses modelos cresceram e passaram a ter tamanhos gigantescos.

Publicidade

Os modelos de linguagem existem há décadas. Até cerca de cinco anos atrás, os mais poderosos eram baseados no que é chamado de rede neural recorrente. Elas basicamente analisam uma sequência de texto e preveem qual será a próxima palavra. O que torna um modelo “recorrente” é ele aprender com a própria experiência: as previsões feitas por ele alimentam a rede para aprimorar o desempenho futuro.

Em 2017, pesquisadores do Google apresentaram um novo tipo de arquitetura dessas redes neurais chamado Transformer. Enquanto uma rede recorrente analisa uma frase palavra por palavra, aquela do tipo Transformer processa todas as palavras ao mesmo tempo. Isso significa que as redes neurais Transformers podem processar grandes volumes de texto simultaneamente.

Elas permitiram uma expansão rápida da complexidade dos modelos de linguagem, aumentando o número de parâmetros no modelo, assim como outros fatores. Os parâmetros podem ser imaginados como as conexões entre as palavras, e os modelos melhoram ao aprimorar essas conexões à medida que elas processam rapidamente texto durante o treinamento. Quanto mais parâmetros há em um modelo, mais ele pode fazer conexões com precisão e mais se aproxima de imitar a linguagem humana de forma aceitável. Como esperado, uma análise de 2020 realizada por pesquisadores da OpenAI descobriu que os modelos melhoram em precisão e habilidades conforme são expandidos.

Mas o lançamento dos LLMs também trouxe algumas coisas verdadeiramente inesperadas. Com a chegada de modelos como o GPT-3, que tem 175 bilhões de parâmetros – ou o PaLM do Google, que pode ser expandido em até 540 bilhões – os usuários começaram a descrever cada vez mais comportamentos emergentes. Um engenheiro da DeepMind, startup “irmã do Google”, chegou a relatar que conseguiu convencer o ChatGPT de que ele era um terminal Linux e fazê-lo executar alguns códigos matemáticos simples para calcular os primeiros dez números primos. Surpreendentemente, ele conseguiu finalizar a tarefa mais rápido do que quando o mesmo código é executado em uma máquina Linux de verdade.

Publicidade

PUBLICIDADE

Assim como na tarefa para descobrir o nome de um filme a partir de emojis, os pesquisadores não tinham motivos para crer que um modelo de linguagem criado para prever texto imitaria de forma convincente um terminal de computador. Muitos desses comportamentos emergentes ilustram o aprendizado “zero-shot” ou “few-shot”, que descreve a capacidade de um LLM de solucionar problemas que nunca – ou raramente – foram vistos antes. Esse é há muito tempo um objetivo da pesquisa de IA, diz Ganguli. Segundo ele, comprovar que o GPT-3 conseguia solucionar problemas sem quaisquer dados de treinamento definidos em um cenário de aprendizado zero-shot, “fez com que eu deixasse de lado o que estava fazendo e me envolvesse mais nisso”.

Ele não foi o único. Um grande número de pesquisadores, detectando os primeiros indícios de que os LLMs poderiam ir além das limitações de seus dados de treinamento, está se esforçando para compreender melhor o que é a emergência e como ela acontece. O primeiro passo foi documentá-la exaustivamente.

Ethan Dyer, cientista da computação do Google, tenta mapear as novas habilidades de grandes modelos de IA Foto: Gabrielle Lurie/Quanta Magazine

Tentativas de entender como máquinas vão além da imitação

Em 2020, Dyer e outros profissionais do Google Research previram que os LLMs teriam efeitos transformadores – mas quais seriam esses efeitos permanecia uma questão em aberto. Por isso, eles pediram à comunidade de pesquisadores que desse exemplos de tarefas difíceis e variadas para mapear o que mais um LLM poderia fazer. Essa iniciativa foi chamada de projeto “Beyond the Imitation Game Benchmark” – algo como Além do Benchmark do Jogo da Imitação – (BIG-bench), fazendo referência ao “jogo da imitação” de Alan Turing, um teste para saber se um computador poderia responder a perguntas de forma convincente e humana. (Mais tarde ele passou a ser conhecido como teste de Turing.) O grupo estava interessado principalmente nos exemplos em que os LLMs adquiriam do nada novas habilidades.

“Entender essas transições bruscas é um grande problema de pesquisa”, disse Dyer.

Publicidade

Como era de se esperar, o desempenho dos modelos ao realizar algumas tarefas melhorava sem percalços e previsivelmente conforme a complexidade deles aumentava. E em outras tarefas, a expansão do número de parâmetros não rendia nenhuma melhoria. Mas em cerca de 5% das tarefas, os pesquisadores encontraram o que chamaram de “grandes avanços” – saltos rápidos e espetaculares no desempenho em algum nível. Isso variava em função da tarefa e do modelo.

Por exemplo, modelos com relativamente poucos parâmetros – apenas alguns milhões – não conseguiam finalizar de forma satisfatória problemas de adição ou multiplicação com números de dois algarismos, mas naqueles com dezenas de bilhões de parâmetros, a exatidão aumentava em alguns modelos. Saltos semelhantes ocorreram para outras tarefas, entre elas decodificar o alfabeto fonético internacional, desembaralhar as letras de uma palavra, identificar conteúdo ofensivo em parágrafos escritos em hindiglês (uma mistura de hindi com inglês) e criar uma versão equivalente em inglês de provérbios em língua suaíli.

Mas os pesquisadores rapidamente perceberam que a complexidade de um modelo não era o único fator determinante. Algumas habilidades inesperadas podiam ser estimuladas em modelos mais simples com menos parâmetros – ou treinados com conjuntos de dados menores – se os dados fossem de qualidade bastante elevada. Além disso, a forma como uma solicitação era formulada influenciava na precisão da resposta do modelo.

Yi Tay, cientista do Google, chama a atenção para trabalhos recentes sugerindo que a cadeia de pensamento leva a mudanças nas curvas de expansão e, portanto, no ponto em que ocorre a emergência. Em seu artigo apresentado na NeurIPS, os pesquisadores do Google mostraram que o uso de comandos para cadeia de pensamento poderia desencadear comportamentos emergentes não identificados no estudo BIG-bench. Tais comandos, que solicitam ao modelo explicar o seu raciocínio, podem ajudar os pesquisadores a começar a investigar por que a emergência ocorre.

Publicidade

Descobertas recentes como essas sugerem pelo menos duas possibilidades de por que a emergência ocorre, disse Ellie Pavlick, cientista da computação da Universidade Brown. Uma delas é que, como sugerido pelas comparações com sistemas biológicos, os modelos mais complexos realmente ganham novas habilidades de forma espontânea. “Pode muito bem ser que o modelo tenha aprendido algo novo e diferente, que não tinha quando era menor”, disse ela. “É isso que todos esperamos: existe alguma mudança fundamental que acontece quando os modelos são ampliados.”

“Pode muito bem ser que o modelo tenha aprendido algo novo e diferente. É isso que todos esperamos: existe alguma mudança fundamental que acontece quando os modelos são ampliados.”

Ellie Pavlick, cientista da computação da Universidade Brown

A outra possibilidade, menos sensacional, diz ela, é que aquilo que parece ser emergente talvez seja, em vez disso, o ápice de um processo interno, orientado por estatísticas, que funciona por meio do raciocínio do tipo cadeia de pensamento. Os LLMs maiores podem simplesmente estar aprendendo heurística, que está fora do alcance para aqueles com menos parâmetros ou dados de qualidade inferior.

Mas, segundo ela, descobrir qual dessas explicações é mais provável depende de uma melhor compreensão de como os LLMs funcionam. “Como não sabemos como eles funcionam por debaixo dos panos, não podemos dizer qual dessas coisas está acontecendo.”

Armadilhas inesperadas

Há um problema óbvio em pedir a esses modelos que expliquem como funcionam: eles são notórios mentirosos. “Estamos confiando cada vez mais nesses modelos para realizar tarefas básicas”, disse Ganguli, “mas não confio cegamente neles. Verifico o trabalho deles”. Como em um dos inúmeros exemplos divertidos, quando o Google apresentou em fevereiro seu chatbot com IA, o Bard. A postagem no blog da empresa anunciando a nova ferramenta mostra Bard cometendo um erro factual.

Publicidade

A emergência leva à imprevisibilidade, e a imprevisibilidade – que parece aumentar com a expansão dos modelos – torna difícil para os pesquisadores antecipar as consequências do uso generalizado.

“É difícil saber de antemão como esses modelos serão usados ou desenvolvidos”, disse Ganguli. “E, para estudar os fenômenos emergentes, é preciso ter um caso em mente, mas você não saberá quais habilidades ou limitações podem surgir até analisar a influência da expansão.”

Em uma análise de LLMs divulgada em junho do ano passado, os pesquisadores da Anthropic verificaram se os modelos manifestariam certos tipos de preconceitos raciais ou sociais, não muito diferente daqueles relatados anteriormente em algoritmos usados para prever quais ex-criminosos tinham mais chances de cometer novos crimes. Esse estudo foi inspirado por um aparente paradoxo vinculado diretamente à emergência: conforme os modelos melhoram seu desempenho quando são expandidos, eles também podem aumentar a probabilidade de fenômenos imprevisíveis, inclusive aqueles que poderiam talvez levar a preconceitos ou a causar danos.

“Certos comportamentos nocivos meio que surgem abruptamente em alguns modelos”, disse Ganguli. Ele chama a atenção para uma análise recente dos LLMs, conhecida como “BBQ benchmark”, que mostrou que os preconceitos sociais surgem com um número enorme de parâmetros. “Modelos maiores se tornam abruptamente mais preconceituosos.” A incapacidade de lidar com esse risco, segundo ele, poderia comprometer as habilidades desses modelos.

Publicidade

Certos comportamentos nocivos meio que surgem abruptamente em alguns modelos. Modelos de IA maiores se tornam mais preconceituosos

Deep Ganguli, cientista da computação da startup de IA Anthropic

No entanto, ele propôs um contraponto: quando os pesquisadores disseram ao modelo para não se basear em estereótipos ou preconceitos sociais – literalmente digitando essas instruções –, o modelo foi menos preconceituoso em suas previsões e respostas. Isso sugere que algumas propriedades emergentes também podem ser usadas para reduzir a incidência de preconceitos. Em um artigo publicado em fevereiro, a equipe da Anthropic relatou um novo modo de “autocorreção moral”, no qual o usuário solicita ao programa ser útil, honesto e inofensivo.

A emergência, disse Ganguli, revela tanto um potencial surpreendente como um risco imprevisível. O uso de LLMs mais complexos já está se proliferando, portanto, uma compreensão melhor dessa interação ajudará a ter controle da variedade de habilidades dos modelos de linguagem.

“Estamos estudando como as pessoas estão realmente usando esses sistemas”, disse Ganguli. Mas esses usuários também estão constantemente mudando. “Passamos boa parte do tempo apenas conversando com nossos modelos”, disse ele, “e é aí que de fato você começa a ter uma boa intuição sobre confiança – ou a falta dela.” /TRADUÇÃO DE ROMINA CÁCIA

História original republicada com permissão da Quanta Magazine, uma publicação editorialmente independente apoiada pela Simons Foundation. Leia o conteúdo original em The Unpredictable Abilities Emerging From Large AI Models

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.