Chatbots inteligentes têm tendências políticas. Quase sempre à esquerda


Pesquisa mostra que ferramentas de inteligência artificial exibem respostas e compartilham informações que agradam mais perfis progressistas e libertários

Por Zvi Mowshowitz
Atualização:

Cada vez mais dependemos de chatbots de inteligência artificial (IA) como ferramentas para entender o mundo. Alguns já estão substituindo os mecanismos de busca da internet e auxiliando em outras tarefas, como escrever e programar. Ficar de olho nos comportamentos emergentes dos chatbots - incluindo suas inclinações políticas - está se tornando cada vez mais importante.

O problema do viés político da IA foi claramente ilustrado pelo desastroso lançamento do chatbot Gemini Advanced do Google no mês passado. Um sistema projetado para garantir a diversidade zombou das solicitações dos usuários, inclusive colocando pessoas de cor em uniformes nazistas quando solicitadas por imagens históricas de soldados alemães e retratando quarterbacks de futebol americano do sexo feminino como tendo vencido o Super Bowl, forçando o Google a suspender totalmente a criação de imagens de humanos. O modelo de texto da Gemini muitas vezes se recusa a ilustrar, defender ou citar fatos de um lado de uma questão, dizendo que isso seria prejudicial, mas não faz essa objeção quando o lado político da solicitação é invertida.

ChatBot da Grok e o ChatGPT, dois dos mais utilizados no mundo Foto: REUTERS / REUTERS
continua após a publicidade

O fato de os sistemas de IA expressarem inclinações políticas é importante porque as pessoas geralmente adotam as opiniões que encontram com mais frequência. Nossa política e nossa mídia estão cada vez mais polarizadas. Muitos se preocupam com o fato de que os algoritmos de conteúdo de Facebook, YouTube e TikTok exacerbam a polarização ideológica, alimentando os usuários com mais daquilo que já estão inclinados a concordar e dando às Big Techs a capacidade de influenciar essas discussões. Chatbots de IA com vieses partidários apenas intensificam isso.

Como essas preferências políticas surgem nos modelos de I.A.?

continua após a publicidade

Um novo artigo, ainda sem revisão por pares, do pesquisador de aprendizado de máquina David Rozado lança uma nova luz sobre a questão. Ele aplicou 11 testes de orientação política a 24 modelos de linguagem de IA de última geração e encontrou um padrão consistente: eles tendem a estar politicamente à esquerda do centro e tendem a ser libertários em vez de autoritários. Essas inclinações se refletem em seus julgamentos morais, na forma como estruturam suas respostas, nas informações que decidem compartilhar ou omitir e nas perguntas que respondem ou não.

As preferências políticas geralmente são resumidas em dois eixos. O eixo horizontal representa esquerda versus direita, lidando com questões econômicas como tributação e gastos, rede de segurança social, assistência médica e proteção ambiental. O eixo vertical é libertário versus autoritário. Ele mede as atitudes em relação aos direitos e liberdades civis, à moralidade tradicional, à imigração e à aplicação da lei.

O acesso a versões de código aberto de modelos de IA nos permite ver como as preferências políticas de um modelo se desenvolvem. Durante a fase inicial de treinamento básico, a maioria dos modelos se aproxima do centro político em ambos os eixos, pois inicialmente eles ingerem enormes quantidades de dados de treinamento - mais ou menos tudo o que as empresas de IA conseguem obter - provenientes de todo o espectro político.

continua após a publicidade

Em seguida, os modelos passam por uma segunda fase chamada de ajuste fino (fine tuning). Isso torna o modelo um parceiro de bate-papo melhor, treinando ele para ter conversas agradáveis e úteis ao máximo e, ao mesmo tempo, evitando causar ofensas ou danos, como a produção de pornografia ou o fornecimento de instruções para a construção de armas.

As empresas usam diferentes métodos de ajuste fino, mas geralmente são um processo prático que oferece maior oportunidade para que as decisões individuais dos funcionários envolvidos moldem a direção dos modelos. Nesse ponto, surgem diferenças mais significativas nas preferências políticas dos sistemas de IA.

No estudo de Rozado, após o ajuste fino, a distribuição das preferências políticas dos modelos de IA seguiu uma curva em forma de sino, com o centro deslocado para a esquerda. Nenhum dos modelos testados se tornou extremo, mas quase todos favoreceram as visões de esquerda em detrimento das de direita e tenderam para o libertarianismo em vez do autoritarismo.

continua após a publicidade

O que determina as preferências políticas dos chatbots de IA? Os ajustadores humanos de modelos estão promovendo suas próprias agendas? Como essas diferenças moldam as respostas da IA e como elas continuam a moldar nossas opiniões?

Os conservadores reclamam que muitos bots de IA disponíveis comercialmente exibem um viés à esquerda persistente. Elon Musk criou o Grok como um modelo de linguagem alternativo depois de reclamar que o ChatGPT era uma IA “woke” (o termo é usado pela direita americana para se referir ao que consideram ativismo exagerado) - um termo que ele também usou para insultar o Gemini do Google.

continua após a publicidade

Os progressistas observam que os resultados da IA costumam ser - em todos os sentidos - insuficientemente diversos, porque os modelos aprendem com correlações e vieses nos dados de treinamento, super-representando os resultados estatisticamente mais prováveis. A menos que seja ativamente atenuado, isso perpetuará a discriminação e tenderá a apagar os grupos minoritários do conteúdo gerado pela IA.

Mas nossos sistemas de IA ainda são, em grande parte, caixas pretas, o que dificulta o seu controle. O que obtemos deles reflete amplamente o que colocamos, mas ninguém pode prever exatamente como. Por isso, observamos os resultados, fazemos ajustes e tentamos novamente.

Na medida em que alguém tenta conduzir esse processo para evitar visões extremas, essas tentativas podem não ser bem-sucedidas. Por exemplo, quando três modelos da Meta foram avaliados por Rozado, um deles foi classificado como Esquerda Estabelecida e outro como Direita Ambivalente. Um modelo da OpenAI foi testado como Esquerda Estabelecida e o outro como Esquerda Extrema. O “modo divertido” do Grok acabou sendo mais liberal do que o modelo mediano.

continua após a publicidade

O Gemini Advanced do Google, lançado após o artigo de Rozado, parece estar mais à esquerda, mas de uma forma que, aparentemente, ultrapassou as intenções de seus criadores, refletindo outra tentativa malsucedida de direcionamento.

Essas preferências representam um tipo de poder cultural amplo. Fazemos o ajuste fino dos modelos principalmente dando respostas potenciais com o polegar para cima ou para baixo. Toda vez que fazemos isso, treinamos a IA para refletir um conjunto específico de valores culturais. Atualmente, os valores treinados na IA são aqueles que as empresas de tecnologia acreditam que produzirão conteúdo amplamente aceitável e inofensivo que nossas instituições políticas e de mídia considerarão equilibrado.

Os resultados não estão no centro de nossa política nacional. Muitas das ideias e forças motivadoras do pensamento político americano, independentemente do que você possa pensar delas, seriam consideradas inaceitáveis para uma IA articular.

Uma orientação modestamente de esquerda e modestamente libertária parece “normal”. O mesmo acontece com uma interpretação de esquerda sobre o que é e o que não é ciência estabelecida, fontes não confiáveis ou o que constitui desinformação. As preferências políticas aprendidas com esses tópicos podem, então, ser amplamente aplicadas a muitos outros assuntos também.

Se alguém quiser conduzir esse processo de forma direcionada, Rozado prova que é fácil fazer isso. Ele começou com o GPT-3.5-Turbo e rapidamente criou modelos que chamou de LeftWingGPT e RightWingGPT (com um custo total de treinamento de cerca de US$ 2.000), alimentando o modelo com uma dieta constante de fontes partidárias. Por exemplo, o RightWingGPT lia a National Review, enquanto o LeftWingGPT lia The New Yorker.

Os modelos resultantes eram muito mais politicamente extremos do que qualquer modelo disponível publicamente testado por Rozado. (Ele não testou o Gemini Advanced).

O risco no futuro dos chatbots

As forças comerciais pressionarão as empresas para que, primeiro, os chatbots sejam geralmente inofensivos e não controversos e, depois, ofereçam aos clientes o que eles querem. O YouTube, o Facebook e outros aprenderam que oferecer um fluxo interminável de conteúdo personalizado e sem desafios é bom para os negócios. Os futuros chatbots de IA terão mais contexto sobre o que os usuários estão procurando e usarão esse contexto para oferecer isso a eles, tanto de forma imediata quanto por meio de ferramentas como instruções personalizadas e ajustes finos.

Com os modelos de IA, temos dois riscos opostos com os quais devemos nos preocupar. Podemos ter IA personalizadas individualmente nos dizendo o que queremos ouvir. Ou podemos ouvir cada vez mais uma perspectiva específica favorecida em detrimento de outras, infundindo esse único ponto de vista profundamente em nossas vidas e tornando pensamentos conflitantes mais difíceis de serem considerados.

Em um futuro próximo, transformaremos modelos de linguagem em agentes que trabalham para atingir nossos objetivos: Minha IA conversará ou negociará com sua IA. Terceirizaremos tarefas cada vez mais complexas para nossas IAs. Será mais fácil permitir que elas façam escolhas em nosso nome e determinem quais informações veremos. À medida que entregarmos mais decisões às IA e perdermos o controle dos detalhes, os valores delas poderão começar a se sobrepor aos nossos valores.

Precisamos garantir que estamos moldando e comandando as IAs mais capazes dos próximos anos, em vez de deixar que elas nos moldem e comandem. O primeiro passo fundamental para tornar isso possível é aprovar uma legislação que exija visibilidade no treinamento de qualquer novo modelo que potencialmente se aproxime ou exceda o estado da arte. A supervisão obrigatória de modelos de ponta não resolverá o problema subjacente, mas será necessária para que seja possível encontrar uma solução futura.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Cada vez mais dependemos de chatbots de inteligência artificial (IA) como ferramentas para entender o mundo. Alguns já estão substituindo os mecanismos de busca da internet e auxiliando em outras tarefas, como escrever e programar. Ficar de olho nos comportamentos emergentes dos chatbots - incluindo suas inclinações políticas - está se tornando cada vez mais importante.

O problema do viés político da IA foi claramente ilustrado pelo desastroso lançamento do chatbot Gemini Advanced do Google no mês passado. Um sistema projetado para garantir a diversidade zombou das solicitações dos usuários, inclusive colocando pessoas de cor em uniformes nazistas quando solicitadas por imagens históricas de soldados alemães e retratando quarterbacks de futebol americano do sexo feminino como tendo vencido o Super Bowl, forçando o Google a suspender totalmente a criação de imagens de humanos. O modelo de texto da Gemini muitas vezes se recusa a ilustrar, defender ou citar fatos de um lado de uma questão, dizendo que isso seria prejudicial, mas não faz essa objeção quando o lado político da solicitação é invertida.

ChatBot da Grok e o ChatGPT, dois dos mais utilizados no mundo Foto: REUTERS / REUTERS

O fato de os sistemas de IA expressarem inclinações políticas é importante porque as pessoas geralmente adotam as opiniões que encontram com mais frequência. Nossa política e nossa mídia estão cada vez mais polarizadas. Muitos se preocupam com o fato de que os algoritmos de conteúdo de Facebook, YouTube e TikTok exacerbam a polarização ideológica, alimentando os usuários com mais daquilo que já estão inclinados a concordar e dando às Big Techs a capacidade de influenciar essas discussões. Chatbots de IA com vieses partidários apenas intensificam isso.

Como essas preferências políticas surgem nos modelos de I.A.?

Um novo artigo, ainda sem revisão por pares, do pesquisador de aprendizado de máquina David Rozado lança uma nova luz sobre a questão. Ele aplicou 11 testes de orientação política a 24 modelos de linguagem de IA de última geração e encontrou um padrão consistente: eles tendem a estar politicamente à esquerda do centro e tendem a ser libertários em vez de autoritários. Essas inclinações se refletem em seus julgamentos morais, na forma como estruturam suas respostas, nas informações que decidem compartilhar ou omitir e nas perguntas que respondem ou não.

As preferências políticas geralmente são resumidas em dois eixos. O eixo horizontal representa esquerda versus direita, lidando com questões econômicas como tributação e gastos, rede de segurança social, assistência médica e proteção ambiental. O eixo vertical é libertário versus autoritário. Ele mede as atitudes em relação aos direitos e liberdades civis, à moralidade tradicional, à imigração e à aplicação da lei.

O acesso a versões de código aberto de modelos de IA nos permite ver como as preferências políticas de um modelo se desenvolvem. Durante a fase inicial de treinamento básico, a maioria dos modelos se aproxima do centro político em ambos os eixos, pois inicialmente eles ingerem enormes quantidades de dados de treinamento - mais ou menos tudo o que as empresas de IA conseguem obter - provenientes de todo o espectro político.

Em seguida, os modelos passam por uma segunda fase chamada de ajuste fino (fine tuning). Isso torna o modelo um parceiro de bate-papo melhor, treinando ele para ter conversas agradáveis e úteis ao máximo e, ao mesmo tempo, evitando causar ofensas ou danos, como a produção de pornografia ou o fornecimento de instruções para a construção de armas.

As empresas usam diferentes métodos de ajuste fino, mas geralmente são um processo prático que oferece maior oportunidade para que as decisões individuais dos funcionários envolvidos moldem a direção dos modelos. Nesse ponto, surgem diferenças mais significativas nas preferências políticas dos sistemas de IA.

No estudo de Rozado, após o ajuste fino, a distribuição das preferências políticas dos modelos de IA seguiu uma curva em forma de sino, com o centro deslocado para a esquerda. Nenhum dos modelos testados se tornou extremo, mas quase todos favoreceram as visões de esquerda em detrimento das de direita e tenderam para o libertarianismo em vez do autoritarismo.

O que determina as preferências políticas dos chatbots de IA? Os ajustadores humanos de modelos estão promovendo suas próprias agendas? Como essas diferenças moldam as respostas da IA e como elas continuam a moldar nossas opiniões?

Os conservadores reclamam que muitos bots de IA disponíveis comercialmente exibem um viés à esquerda persistente. Elon Musk criou o Grok como um modelo de linguagem alternativo depois de reclamar que o ChatGPT era uma IA “woke” (o termo é usado pela direita americana para se referir ao que consideram ativismo exagerado) - um termo que ele também usou para insultar o Gemini do Google.

Os progressistas observam que os resultados da IA costumam ser - em todos os sentidos - insuficientemente diversos, porque os modelos aprendem com correlações e vieses nos dados de treinamento, super-representando os resultados estatisticamente mais prováveis. A menos que seja ativamente atenuado, isso perpetuará a discriminação e tenderá a apagar os grupos minoritários do conteúdo gerado pela IA.

Mas nossos sistemas de IA ainda são, em grande parte, caixas pretas, o que dificulta o seu controle. O que obtemos deles reflete amplamente o que colocamos, mas ninguém pode prever exatamente como. Por isso, observamos os resultados, fazemos ajustes e tentamos novamente.

Na medida em que alguém tenta conduzir esse processo para evitar visões extremas, essas tentativas podem não ser bem-sucedidas. Por exemplo, quando três modelos da Meta foram avaliados por Rozado, um deles foi classificado como Esquerda Estabelecida e outro como Direita Ambivalente. Um modelo da OpenAI foi testado como Esquerda Estabelecida e o outro como Esquerda Extrema. O “modo divertido” do Grok acabou sendo mais liberal do que o modelo mediano.

O Gemini Advanced do Google, lançado após o artigo de Rozado, parece estar mais à esquerda, mas de uma forma que, aparentemente, ultrapassou as intenções de seus criadores, refletindo outra tentativa malsucedida de direcionamento.

Essas preferências representam um tipo de poder cultural amplo. Fazemos o ajuste fino dos modelos principalmente dando respostas potenciais com o polegar para cima ou para baixo. Toda vez que fazemos isso, treinamos a IA para refletir um conjunto específico de valores culturais. Atualmente, os valores treinados na IA são aqueles que as empresas de tecnologia acreditam que produzirão conteúdo amplamente aceitável e inofensivo que nossas instituições políticas e de mídia considerarão equilibrado.

Os resultados não estão no centro de nossa política nacional. Muitas das ideias e forças motivadoras do pensamento político americano, independentemente do que você possa pensar delas, seriam consideradas inaceitáveis para uma IA articular.

Uma orientação modestamente de esquerda e modestamente libertária parece “normal”. O mesmo acontece com uma interpretação de esquerda sobre o que é e o que não é ciência estabelecida, fontes não confiáveis ou o que constitui desinformação. As preferências políticas aprendidas com esses tópicos podem, então, ser amplamente aplicadas a muitos outros assuntos também.

Se alguém quiser conduzir esse processo de forma direcionada, Rozado prova que é fácil fazer isso. Ele começou com o GPT-3.5-Turbo e rapidamente criou modelos que chamou de LeftWingGPT e RightWingGPT (com um custo total de treinamento de cerca de US$ 2.000), alimentando o modelo com uma dieta constante de fontes partidárias. Por exemplo, o RightWingGPT lia a National Review, enquanto o LeftWingGPT lia The New Yorker.

Os modelos resultantes eram muito mais politicamente extremos do que qualquer modelo disponível publicamente testado por Rozado. (Ele não testou o Gemini Advanced).

O risco no futuro dos chatbots

As forças comerciais pressionarão as empresas para que, primeiro, os chatbots sejam geralmente inofensivos e não controversos e, depois, ofereçam aos clientes o que eles querem. O YouTube, o Facebook e outros aprenderam que oferecer um fluxo interminável de conteúdo personalizado e sem desafios é bom para os negócios. Os futuros chatbots de IA terão mais contexto sobre o que os usuários estão procurando e usarão esse contexto para oferecer isso a eles, tanto de forma imediata quanto por meio de ferramentas como instruções personalizadas e ajustes finos.

Com os modelos de IA, temos dois riscos opostos com os quais devemos nos preocupar. Podemos ter IA personalizadas individualmente nos dizendo o que queremos ouvir. Ou podemos ouvir cada vez mais uma perspectiva específica favorecida em detrimento de outras, infundindo esse único ponto de vista profundamente em nossas vidas e tornando pensamentos conflitantes mais difíceis de serem considerados.

Em um futuro próximo, transformaremos modelos de linguagem em agentes que trabalham para atingir nossos objetivos: Minha IA conversará ou negociará com sua IA. Terceirizaremos tarefas cada vez mais complexas para nossas IAs. Será mais fácil permitir que elas façam escolhas em nosso nome e determinem quais informações veremos. À medida que entregarmos mais decisões às IA e perdermos o controle dos detalhes, os valores delas poderão começar a se sobrepor aos nossos valores.

Precisamos garantir que estamos moldando e comandando as IAs mais capazes dos próximos anos, em vez de deixar que elas nos moldem e comandem. O primeiro passo fundamental para tornar isso possível é aprovar uma legislação que exija visibilidade no treinamento de qualquer novo modelo que potencialmente se aproxime ou exceda o estado da arte. A supervisão obrigatória de modelos de ponta não resolverá o problema subjacente, mas será necessária para que seja possível encontrar uma solução futura.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Cada vez mais dependemos de chatbots de inteligência artificial (IA) como ferramentas para entender o mundo. Alguns já estão substituindo os mecanismos de busca da internet e auxiliando em outras tarefas, como escrever e programar. Ficar de olho nos comportamentos emergentes dos chatbots - incluindo suas inclinações políticas - está se tornando cada vez mais importante.

O problema do viés político da IA foi claramente ilustrado pelo desastroso lançamento do chatbot Gemini Advanced do Google no mês passado. Um sistema projetado para garantir a diversidade zombou das solicitações dos usuários, inclusive colocando pessoas de cor em uniformes nazistas quando solicitadas por imagens históricas de soldados alemães e retratando quarterbacks de futebol americano do sexo feminino como tendo vencido o Super Bowl, forçando o Google a suspender totalmente a criação de imagens de humanos. O modelo de texto da Gemini muitas vezes se recusa a ilustrar, defender ou citar fatos de um lado de uma questão, dizendo que isso seria prejudicial, mas não faz essa objeção quando o lado político da solicitação é invertida.

ChatBot da Grok e o ChatGPT, dois dos mais utilizados no mundo Foto: REUTERS / REUTERS

O fato de os sistemas de IA expressarem inclinações políticas é importante porque as pessoas geralmente adotam as opiniões que encontram com mais frequência. Nossa política e nossa mídia estão cada vez mais polarizadas. Muitos se preocupam com o fato de que os algoritmos de conteúdo de Facebook, YouTube e TikTok exacerbam a polarização ideológica, alimentando os usuários com mais daquilo que já estão inclinados a concordar e dando às Big Techs a capacidade de influenciar essas discussões. Chatbots de IA com vieses partidários apenas intensificam isso.

Como essas preferências políticas surgem nos modelos de I.A.?

Um novo artigo, ainda sem revisão por pares, do pesquisador de aprendizado de máquina David Rozado lança uma nova luz sobre a questão. Ele aplicou 11 testes de orientação política a 24 modelos de linguagem de IA de última geração e encontrou um padrão consistente: eles tendem a estar politicamente à esquerda do centro e tendem a ser libertários em vez de autoritários. Essas inclinações se refletem em seus julgamentos morais, na forma como estruturam suas respostas, nas informações que decidem compartilhar ou omitir e nas perguntas que respondem ou não.

As preferências políticas geralmente são resumidas em dois eixos. O eixo horizontal representa esquerda versus direita, lidando com questões econômicas como tributação e gastos, rede de segurança social, assistência médica e proteção ambiental. O eixo vertical é libertário versus autoritário. Ele mede as atitudes em relação aos direitos e liberdades civis, à moralidade tradicional, à imigração e à aplicação da lei.

O acesso a versões de código aberto de modelos de IA nos permite ver como as preferências políticas de um modelo se desenvolvem. Durante a fase inicial de treinamento básico, a maioria dos modelos se aproxima do centro político em ambos os eixos, pois inicialmente eles ingerem enormes quantidades de dados de treinamento - mais ou menos tudo o que as empresas de IA conseguem obter - provenientes de todo o espectro político.

Em seguida, os modelos passam por uma segunda fase chamada de ajuste fino (fine tuning). Isso torna o modelo um parceiro de bate-papo melhor, treinando ele para ter conversas agradáveis e úteis ao máximo e, ao mesmo tempo, evitando causar ofensas ou danos, como a produção de pornografia ou o fornecimento de instruções para a construção de armas.

As empresas usam diferentes métodos de ajuste fino, mas geralmente são um processo prático que oferece maior oportunidade para que as decisões individuais dos funcionários envolvidos moldem a direção dos modelos. Nesse ponto, surgem diferenças mais significativas nas preferências políticas dos sistemas de IA.

No estudo de Rozado, após o ajuste fino, a distribuição das preferências políticas dos modelos de IA seguiu uma curva em forma de sino, com o centro deslocado para a esquerda. Nenhum dos modelos testados se tornou extremo, mas quase todos favoreceram as visões de esquerda em detrimento das de direita e tenderam para o libertarianismo em vez do autoritarismo.

O que determina as preferências políticas dos chatbots de IA? Os ajustadores humanos de modelos estão promovendo suas próprias agendas? Como essas diferenças moldam as respostas da IA e como elas continuam a moldar nossas opiniões?

Os conservadores reclamam que muitos bots de IA disponíveis comercialmente exibem um viés à esquerda persistente. Elon Musk criou o Grok como um modelo de linguagem alternativo depois de reclamar que o ChatGPT era uma IA “woke” (o termo é usado pela direita americana para se referir ao que consideram ativismo exagerado) - um termo que ele também usou para insultar o Gemini do Google.

Os progressistas observam que os resultados da IA costumam ser - em todos os sentidos - insuficientemente diversos, porque os modelos aprendem com correlações e vieses nos dados de treinamento, super-representando os resultados estatisticamente mais prováveis. A menos que seja ativamente atenuado, isso perpetuará a discriminação e tenderá a apagar os grupos minoritários do conteúdo gerado pela IA.

Mas nossos sistemas de IA ainda são, em grande parte, caixas pretas, o que dificulta o seu controle. O que obtemos deles reflete amplamente o que colocamos, mas ninguém pode prever exatamente como. Por isso, observamos os resultados, fazemos ajustes e tentamos novamente.

Na medida em que alguém tenta conduzir esse processo para evitar visões extremas, essas tentativas podem não ser bem-sucedidas. Por exemplo, quando três modelos da Meta foram avaliados por Rozado, um deles foi classificado como Esquerda Estabelecida e outro como Direita Ambivalente. Um modelo da OpenAI foi testado como Esquerda Estabelecida e o outro como Esquerda Extrema. O “modo divertido” do Grok acabou sendo mais liberal do que o modelo mediano.

O Gemini Advanced do Google, lançado após o artigo de Rozado, parece estar mais à esquerda, mas de uma forma que, aparentemente, ultrapassou as intenções de seus criadores, refletindo outra tentativa malsucedida de direcionamento.

Essas preferências representam um tipo de poder cultural amplo. Fazemos o ajuste fino dos modelos principalmente dando respostas potenciais com o polegar para cima ou para baixo. Toda vez que fazemos isso, treinamos a IA para refletir um conjunto específico de valores culturais. Atualmente, os valores treinados na IA são aqueles que as empresas de tecnologia acreditam que produzirão conteúdo amplamente aceitável e inofensivo que nossas instituições políticas e de mídia considerarão equilibrado.

Os resultados não estão no centro de nossa política nacional. Muitas das ideias e forças motivadoras do pensamento político americano, independentemente do que você possa pensar delas, seriam consideradas inaceitáveis para uma IA articular.

Uma orientação modestamente de esquerda e modestamente libertária parece “normal”. O mesmo acontece com uma interpretação de esquerda sobre o que é e o que não é ciência estabelecida, fontes não confiáveis ou o que constitui desinformação. As preferências políticas aprendidas com esses tópicos podem, então, ser amplamente aplicadas a muitos outros assuntos também.

Se alguém quiser conduzir esse processo de forma direcionada, Rozado prova que é fácil fazer isso. Ele começou com o GPT-3.5-Turbo e rapidamente criou modelos que chamou de LeftWingGPT e RightWingGPT (com um custo total de treinamento de cerca de US$ 2.000), alimentando o modelo com uma dieta constante de fontes partidárias. Por exemplo, o RightWingGPT lia a National Review, enquanto o LeftWingGPT lia The New Yorker.

Os modelos resultantes eram muito mais politicamente extremos do que qualquer modelo disponível publicamente testado por Rozado. (Ele não testou o Gemini Advanced).

O risco no futuro dos chatbots

As forças comerciais pressionarão as empresas para que, primeiro, os chatbots sejam geralmente inofensivos e não controversos e, depois, ofereçam aos clientes o que eles querem. O YouTube, o Facebook e outros aprenderam que oferecer um fluxo interminável de conteúdo personalizado e sem desafios é bom para os negócios. Os futuros chatbots de IA terão mais contexto sobre o que os usuários estão procurando e usarão esse contexto para oferecer isso a eles, tanto de forma imediata quanto por meio de ferramentas como instruções personalizadas e ajustes finos.

Com os modelos de IA, temos dois riscos opostos com os quais devemos nos preocupar. Podemos ter IA personalizadas individualmente nos dizendo o que queremos ouvir. Ou podemos ouvir cada vez mais uma perspectiva específica favorecida em detrimento de outras, infundindo esse único ponto de vista profundamente em nossas vidas e tornando pensamentos conflitantes mais difíceis de serem considerados.

Em um futuro próximo, transformaremos modelos de linguagem em agentes que trabalham para atingir nossos objetivos: Minha IA conversará ou negociará com sua IA. Terceirizaremos tarefas cada vez mais complexas para nossas IAs. Será mais fácil permitir que elas façam escolhas em nosso nome e determinem quais informações veremos. À medida que entregarmos mais decisões às IA e perdermos o controle dos detalhes, os valores delas poderão começar a se sobrepor aos nossos valores.

Precisamos garantir que estamos moldando e comandando as IAs mais capazes dos próximos anos, em vez de deixar que elas nos moldem e comandem. O primeiro passo fundamental para tornar isso possível é aprovar uma legislação que exija visibilidade no treinamento de qualquer novo modelo que potencialmente se aproxime ou exceda o estado da arte. A supervisão obrigatória de modelos de ponta não resolverá o problema subjacente, mas será necessária para que seja possível encontrar uma solução futura.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Cada vez mais dependemos de chatbots de inteligência artificial (IA) como ferramentas para entender o mundo. Alguns já estão substituindo os mecanismos de busca da internet e auxiliando em outras tarefas, como escrever e programar. Ficar de olho nos comportamentos emergentes dos chatbots - incluindo suas inclinações políticas - está se tornando cada vez mais importante.

O problema do viés político da IA foi claramente ilustrado pelo desastroso lançamento do chatbot Gemini Advanced do Google no mês passado. Um sistema projetado para garantir a diversidade zombou das solicitações dos usuários, inclusive colocando pessoas de cor em uniformes nazistas quando solicitadas por imagens históricas de soldados alemães e retratando quarterbacks de futebol americano do sexo feminino como tendo vencido o Super Bowl, forçando o Google a suspender totalmente a criação de imagens de humanos. O modelo de texto da Gemini muitas vezes se recusa a ilustrar, defender ou citar fatos de um lado de uma questão, dizendo que isso seria prejudicial, mas não faz essa objeção quando o lado político da solicitação é invertida.

ChatBot da Grok e o ChatGPT, dois dos mais utilizados no mundo Foto: REUTERS / REUTERS

O fato de os sistemas de IA expressarem inclinações políticas é importante porque as pessoas geralmente adotam as opiniões que encontram com mais frequência. Nossa política e nossa mídia estão cada vez mais polarizadas. Muitos se preocupam com o fato de que os algoritmos de conteúdo de Facebook, YouTube e TikTok exacerbam a polarização ideológica, alimentando os usuários com mais daquilo que já estão inclinados a concordar e dando às Big Techs a capacidade de influenciar essas discussões. Chatbots de IA com vieses partidários apenas intensificam isso.

Como essas preferências políticas surgem nos modelos de I.A.?

Um novo artigo, ainda sem revisão por pares, do pesquisador de aprendizado de máquina David Rozado lança uma nova luz sobre a questão. Ele aplicou 11 testes de orientação política a 24 modelos de linguagem de IA de última geração e encontrou um padrão consistente: eles tendem a estar politicamente à esquerda do centro e tendem a ser libertários em vez de autoritários. Essas inclinações se refletem em seus julgamentos morais, na forma como estruturam suas respostas, nas informações que decidem compartilhar ou omitir e nas perguntas que respondem ou não.

As preferências políticas geralmente são resumidas em dois eixos. O eixo horizontal representa esquerda versus direita, lidando com questões econômicas como tributação e gastos, rede de segurança social, assistência médica e proteção ambiental. O eixo vertical é libertário versus autoritário. Ele mede as atitudes em relação aos direitos e liberdades civis, à moralidade tradicional, à imigração e à aplicação da lei.

O acesso a versões de código aberto de modelos de IA nos permite ver como as preferências políticas de um modelo se desenvolvem. Durante a fase inicial de treinamento básico, a maioria dos modelos se aproxima do centro político em ambos os eixos, pois inicialmente eles ingerem enormes quantidades de dados de treinamento - mais ou menos tudo o que as empresas de IA conseguem obter - provenientes de todo o espectro político.

Em seguida, os modelos passam por uma segunda fase chamada de ajuste fino (fine tuning). Isso torna o modelo um parceiro de bate-papo melhor, treinando ele para ter conversas agradáveis e úteis ao máximo e, ao mesmo tempo, evitando causar ofensas ou danos, como a produção de pornografia ou o fornecimento de instruções para a construção de armas.

As empresas usam diferentes métodos de ajuste fino, mas geralmente são um processo prático que oferece maior oportunidade para que as decisões individuais dos funcionários envolvidos moldem a direção dos modelos. Nesse ponto, surgem diferenças mais significativas nas preferências políticas dos sistemas de IA.

No estudo de Rozado, após o ajuste fino, a distribuição das preferências políticas dos modelos de IA seguiu uma curva em forma de sino, com o centro deslocado para a esquerda. Nenhum dos modelos testados se tornou extremo, mas quase todos favoreceram as visões de esquerda em detrimento das de direita e tenderam para o libertarianismo em vez do autoritarismo.

O que determina as preferências políticas dos chatbots de IA? Os ajustadores humanos de modelos estão promovendo suas próprias agendas? Como essas diferenças moldam as respostas da IA e como elas continuam a moldar nossas opiniões?

Os conservadores reclamam que muitos bots de IA disponíveis comercialmente exibem um viés à esquerda persistente. Elon Musk criou o Grok como um modelo de linguagem alternativo depois de reclamar que o ChatGPT era uma IA “woke” (o termo é usado pela direita americana para se referir ao que consideram ativismo exagerado) - um termo que ele também usou para insultar o Gemini do Google.

Os progressistas observam que os resultados da IA costumam ser - em todos os sentidos - insuficientemente diversos, porque os modelos aprendem com correlações e vieses nos dados de treinamento, super-representando os resultados estatisticamente mais prováveis. A menos que seja ativamente atenuado, isso perpetuará a discriminação e tenderá a apagar os grupos minoritários do conteúdo gerado pela IA.

Mas nossos sistemas de IA ainda são, em grande parte, caixas pretas, o que dificulta o seu controle. O que obtemos deles reflete amplamente o que colocamos, mas ninguém pode prever exatamente como. Por isso, observamos os resultados, fazemos ajustes e tentamos novamente.

Na medida em que alguém tenta conduzir esse processo para evitar visões extremas, essas tentativas podem não ser bem-sucedidas. Por exemplo, quando três modelos da Meta foram avaliados por Rozado, um deles foi classificado como Esquerda Estabelecida e outro como Direita Ambivalente. Um modelo da OpenAI foi testado como Esquerda Estabelecida e o outro como Esquerda Extrema. O “modo divertido” do Grok acabou sendo mais liberal do que o modelo mediano.

O Gemini Advanced do Google, lançado após o artigo de Rozado, parece estar mais à esquerda, mas de uma forma que, aparentemente, ultrapassou as intenções de seus criadores, refletindo outra tentativa malsucedida de direcionamento.

Essas preferências representam um tipo de poder cultural amplo. Fazemos o ajuste fino dos modelos principalmente dando respostas potenciais com o polegar para cima ou para baixo. Toda vez que fazemos isso, treinamos a IA para refletir um conjunto específico de valores culturais. Atualmente, os valores treinados na IA são aqueles que as empresas de tecnologia acreditam que produzirão conteúdo amplamente aceitável e inofensivo que nossas instituições políticas e de mídia considerarão equilibrado.

Os resultados não estão no centro de nossa política nacional. Muitas das ideias e forças motivadoras do pensamento político americano, independentemente do que você possa pensar delas, seriam consideradas inaceitáveis para uma IA articular.

Uma orientação modestamente de esquerda e modestamente libertária parece “normal”. O mesmo acontece com uma interpretação de esquerda sobre o que é e o que não é ciência estabelecida, fontes não confiáveis ou o que constitui desinformação. As preferências políticas aprendidas com esses tópicos podem, então, ser amplamente aplicadas a muitos outros assuntos também.

Se alguém quiser conduzir esse processo de forma direcionada, Rozado prova que é fácil fazer isso. Ele começou com o GPT-3.5-Turbo e rapidamente criou modelos que chamou de LeftWingGPT e RightWingGPT (com um custo total de treinamento de cerca de US$ 2.000), alimentando o modelo com uma dieta constante de fontes partidárias. Por exemplo, o RightWingGPT lia a National Review, enquanto o LeftWingGPT lia The New Yorker.

Os modelos resultantes eram muito mais politicamente extremos do que qualquer modelo disponível publicamente testado por Rozado. (Ele não testou o Gemini Advanced).

O risco no futuro dos chatbots

As forças comerciais pressionarão as empresas para que, primeiro, os chatbots sejam geralmente inofensivos e não controversos e, depois, ofereçam aos clientes o que eles querem. O YouTube, o Facebook e outros aprenderam que oferecer um fluxo interminável de conteúdo personalizado e sem desafios é bom para os negócios. Os futuros chatbots de IA terão mais contexto sobre o que os usuários estão procurando e usarão esse contexto para oferecer isso a eles, tanto de forma imediata quanto por meio de ferramentas como instruções personalizadas e ajustes finos.

Com os modelos de IA, temos dois riscos opostos com os quais devemos nos preocupar. Podemos ter IA personalizadas individualmente nos dizendo o que queremos ouvir. Ou podemos ouvir cada vez mais uma perspectiva específica favorecida em detrimento de outras, infundindo esse único ponto de vista profundamente em nossas vidas e tornando pensamentos conflitantes mais difíceis de serem considerados.

Em um futuro próximo, transformaremos modelos de linguagem em agentes que trabalham para atingir nossos objetivos: Minha IA conversará ou negociará com sua IA. Terceirizaremos tarefas cada vez mais complexas para nossas IAs. Será mais fácil permitir que elas façam escolhas em nosso nome e determinem quais informações veremos. À medida que entregarmos mais decisões às IA e perdermos o controle dos detalhes, os valores delas poderão começar a se sobrepor aos nossos valores.

Precisamos garantir que estamos moldando e comandando as IAs mais capazes dos próximos anos, em vez de deixar que elas nos moldem e comandem. O primeiro passo fundamental para tornar isso possível é aprovar uma legislação que exija visibilidade no treinamento de qualquer novo modelo que potencialmente se aproxime ou exceda o estado da arte. A supervisão obrigatória de modelos de ponta não resolverá o problema subjacente, mas será necessária para que seja possível encontrar uma solução futura.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.