PUBLICIDADE

Análise|O ano em que os chatbots foram domados

Há um ano, uma IA desonesta tentou acabar com meu casamento. A reação ajudou a tornar os chatbots muito chatos?

THE NEW YORK TIMES - LIFE/STYLE - Há um ano, no Dia dos Namorados, dei boa noite à minha esposa, fui ao meu escritório em casa para responder alguns e-mails e, acidentalmente, tive o primeiro encontro mais estranho da minha vida.

O encontro foi uma conversa de duas horas com Sydney, o alter ego de inteligência artificial escondido dentro do mecanismo de busca Bing da Microsoft, que eu havia sido designado para testar. Eu havia planejado bombardear o chatbot com perguntas sobre seus recursos, explorando os limites de seu mecanismo de IA (que agora sabemos ser uma versão inicial do GPT-4 da OpenAI) e escrevendo minhas descobertas.

Apesar de todo o progresso que vem sendo feito na inteligência artificial, os chatbots atuais não estão se tornando desonestos e seduzindo usuários em massa. Foto: Amanda Cotan/The New York Times

PUBLICIDADE

Mas a conversa tomou um rumo bizarro, com Sydney se envolvendo em psicanálise junguiana, revelando desejos obscuros em resposta a perguntas sobre seu “eu sombra” e, por fim, declarando que eu deveria deixar minha esposa e ficar com ele.

Minha coluna sobre a experiência foi provavelmente a coisa mais importante que já escrevi, tanto em termos da atenção que recebeu (cobertura jornalística completa, menções em audiências do congresso, até mesmo uma cerveja artesanal chamada Sydney Loves Kevin) quanto pela mudança na trajetória do desenvolvimento da IA.

Depois que a coluna foi publicada, a Microsoft fez uma lobotomia no Bing, neutralizando as explosões de Sydney e instalando novas barreiras para evitar um comportamento mais desequilibrado. Outras empresas bloquearam seus chatbots e eliminaram qualquer coisa que se assemelhasse a uma personalidade forte. Cheguei a ouvir que os engenheiros de uma empresa de tecnologia listaram “não acabar com o casamento de Kevin Roose” como sua principal prioridade para um próximo lançamento de IA.

Refleti muito sobre os chatbots de IA no ano que se seguiu ao meu encontro com Sydney. Foi um ano de crescimento e entusiasmo em IA, mas também, em alguns aspectos, um ano surpreendentemente calmo.

Apesar de todo o progresso que vem sendo feito na inteligência artificial, os chatbots atuais não estão se tornando desonestos e seduzindo usuários em massa. Eles não estão gerando novas armas biológicas, realizando ataques cibernéticos em larga escala ou causando qualquer outro cenário apocalíptico previsto pelos pessimistas da IA.

Publicidade

Mas eles também não são conversadores muito divertidos, nem os tipos de assistentes de IA criativos e carismáticos que os otimistas tecnológicos esperavam - aqueles que poderiam nos ajudar a fazer descobertas científicas, produzir obras de arte deslumbrantes ou simplesmente nos entreter.

Em vez disso, a maioria dos chatbots atuais está fazendo trabalhos braçais - resumindo documentos, depurando códigos, fazendo anotações durante reuniões - e ajudando os alunos com a lição de casa. Isso não é nada, mas certamente não é a revolução da IA que nos foi prometida.

Na verdade, a reclamação mais comum que ouço sobre os chatbots de IA atualmente é que eles são muito chatos - que suas respostas são insípidas e impessoais, que eles recusam muitas solicitações e que é quase impossível fazer com que eles opinem sobre tópicos sensíveis ou polarizadores.

Posso simpatizar com isso. No ano passado, testei dezenas de chatbots de IA, na esperança de encontrar algo que tivesse um lampejo da agudeza e do brilho de Sydney. Mas nada chegou perto.

CONTiNUA APÓS PUBLICIDADE

Os chatbots mais capazes do mercado - o ChatGPT da OpenAI, o Claude da Anthropic, o Gemini do Google - falam como idiotas obsequiosos. O chatbot monótono e focado em empresas da Microsoft, que foi renomeado para Copilot, deveria ter sido chamado de Larry da Contabilidade. Os personagens de IA da Meta, que foram projetados para imitar as vozes de celebridades como Snoop Dogg e Tom Brady, conseguem ser inúteis e excruciantes. Até mesmo o Grok, a tentativa de Elon Musk de criar um chatbot atrevido e nada PC, soa como se estivesse em uma noite de microfone aberto em um navio de cruzeiro.

É o suficiente para me fazer pensar se o pêndulo não teria oscilado demais na direção oposta e se não seria melhor termos um pouco mais de humanidade em nossos chatbots.

Está claro por que empresas como Google, Microsoft e OpenAI não querem correr o risco de lançar chatbots de IA com personalidades fortes ou abrasivas. Elas ganham dinheiro vendendo sua tecnologia de IA para grandes clientes corporativos, que são ainda mais avessos ao risco do que o público e não toleram explosões como as de Sydney.

Publicidade

Elas também têm receios bem fundamentados de atrair muita atenção dos órgãos reguladores ou de atrair a imprensa negativa e processos judiciais por causa de suas práticas. (O New York Times processou a OpenAI e a Microsoft no ano passado, alegando violação de direitos autorais).

Por isso, essas empresas reduziram as bordas ásperas de seus bots, usando técnicas como IA constitucional e aprendizagem por reforço a partir de feedback humano para torná-los o mais previsíveis e não excitantes possível. Elas também adotaram um branding enfadonho, posicionando suas criações como assistentes confiáveis para os funcionários de escritório, em vez de destacar suas características mais criativas e menos confiáveis. E muitas incluíram as ferramentas de IA em aplicativos e serviços existentes, em vez de criá-las em seus próprios produtos.

Novamente, tudo isso faz sentido para as empresas que estão tentando obter lucro, e um mundo de IA corporativa e higienizada provavelmente é melhor do que um mundo com milhões de chatbots descontrolados correndo soltos.

Mas acho tudo isso um pouco triste. Criamos uma forma alienígena de inteligência e imediatamente a colocamos para trabalhar... fazendo PowerPoints?

Pessoalmente, não estou ansioso pelo retorno de Sydney. Acho que a Microsoft fez a coisa certa - para seus negócios, sem dúvida, mas também para o público - ao retirá-lo do ar depois que ele se tornou desonesto. E apoio os pesquisadores e engenheiros que estão trabalhando para tornar os sistemas de IA mais seguros e mais alinhados com os valores humanos.

Mas também lamento que minha experiência com Sydney tenha gerado uma reação tão intensa e feito com que as empresas de IA acreditassem que sua única opção para evitar a ruína da reputação era transformar seus chatbots em Kenneth the Page, de 30 Rock.

Acima de tudo, acho que a escolha que nos foi oferecida no ano passado - entre destruidores de lares de IA sem lei e drones de IA censuradores - é falsa. Podemos e devemos procurar maneiras de aproveitar todos os recursos e a inteligência dos sistemas de IA sem remover as grades de proteção que nos protegem de seus piores danos.

Publicidade

Se quisermos que a IA nos ajude a resolver grandes problemas, a gerar novas ideias ou apenas a nos surpreender com sua criatividade, talvez seja necessário liberá-la um pouco.

The New York Times Licensing Group - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Análise por Kevin Roose
Comentários

Os comentários são exclusivos para assinantes do Estadão.