Claude 2 é lançado pela Anthropic como alternativa ‘menos tóxica’ ao ChatGPT; conheça

Claude 2 está disponível para qualquer pessoa nos Estados Unidos e no Reino Unido

PUBLICIDADE

Por Geovana Melo

A startup de inteligência artificial (IA) Anthropic lançou na terça-feira, 11, uma nova versão do chatbot Claude, um dos principais concorrentes do ChatGPT, lançado no ano passado pela OpenAI. Batizado de Claude 2, está disponível em versão beta para usuários dos Estados Unidos e Reino Unido — mais países devem ganhar a novidade nos próximos meses.

PUBLICIDADE

A nova versão promete respostas mais rápidas e precisas sobre temas específicos. Além disso, o robô está mais afiado para fazer códigos de programação e resolver problemas matemáticos de Ensino Fundamental. No exame de múltipla escolha criado para avaliar médicos dos EUA, o Claude 2 pontuou 76,5%, em relação aos 73% da versão anterior.

O Claude 2 chega sete meses depois do primeiro lançamento, batizado de Claude 1.3. A versão anterior comportava 100 mil tokens, unidade de medida para texto bruto. O modelo consegue analisar 75 mil palavras (como centenas de documentos ou um livro) e gerar 4 mil tokens, algo em torno de 3.125 palavras.

O Claude 2 está disponível tanto na web quanto por meio de API paga, que custa US$ 0,04, para gerar mil palavras.

O chatbot da Anthropic foi construído sobre um modelo de linguagem ampla (LLM, na sigla em inglês), similar ao ChatGPT. Isso significa que a IA consegue cumprir tarefas escritas, como resumir textos, realizar traduções, escrever mensagens e até fazer código de programação.

Anthropic, a alternativa ‘menos tóxica’

Fundada em 2021 por Dario Amodei, ex-executivo da OpenAI, a Anthropic é bancada por investidores de peso do mercado de inovação mundial. Entre eles, o próprio Google, que comprou 10% da startup após um cheque de US$ 300 milhões. Hoje, a firma é avaliada US$ 1,45 bilhões.

A Anthropic diferencia-se da OpenAI ao criar o que chama de “inteligência artificial constitucional”: a técnica permite treinar o modelo com “valores” definidos por uma “constituição”. Esses princípios guiam como o chatbot vai responder a perguntas dos usuários. Caso a IA considere algo ofensivo, ela pode se recusar ou se esquivar da pergunta.

Publicidade

Não à toa, a própria Anthropic trabalha para que o Claude seja uma IA “útil” e “não-tóxica”.

Comentários

Os comentários são exclusivos para assinantes do Estadão.