Pesquisadores de inteligência artificial (IA) das universidades de Stanford e Washington conseguiram treinar um modelo dedicado para raciocínio por menos de US$ 50 em créditos de computação em nuvem, segundo um artigo publicado por eles na última sexta-feira, 31.
O modelo se chama s1 e tem desempenho similar aos sistemas avançados de raciocínio, como o o1 da OpenAI e o R1 da DeepSeek, de acordo com testes que medem habilidades matemáticas e de programação. O s1 e os dados e código de treinamento estão disponíveis na plataforma GitHub.

A equipe por trás da invenção explicou que usou um modelo de IA disponível comercialmente como base e o refinou por meio de destilação, um processo que extrai as capacidades de raciocínio de outro modelo de IA.
O principal modelo usado na destilação foi o Gemini 2.0 Flash Thinking Experimental, do Google. Essa abordagem também foi usada por outro grupo de pesquisadores, dessa vez na Universidade de Berkeley, para criar um modelo de raciocínio de IA por cerca de US$ 450.
Grandes empresas de IA, como a OpenAI, estão insatisfeitas com o que a indústria passou a chamar de comoditização dos modelos de IA, afinal elas alegam que pequenos grupos de pesquisa que replicam modelos de IA caríssimos por uma quantia modesta não caracteriza evolução ou mesmo vantagem competitiva.
Leia também
A reação do mercado à DeepSeek, IA que custou muito menos do que gigantes do meio, ilustrou esse fato. Em 27 de janeiro, depois que os investidores perceberam o quão bons eram os modelos “v3″ e " R1″ da empresa chinesa, tiraram cerca de US$ 1 trilhão da capitalização de mercado das empresas de tecnologia listadas nos Estados Unidos. A Nvidia, fabricante de chips e principal vendedora da corrida do ouro da IA, viu seu valor cair em US$ 600 bilhões.
A OpenAI junto com sua maior investidora e parceira de negócio, a Microsoft, investiga se a DeepSeek destilou informações de forma ilegal. Esse caso chamou a atenção do governo americano, que se posicionou por meio de David Sacks – uma espécie de guru de IA no segundo mandato Trump – que afirmou, sem apresentar provas, que há “evidências substanciais” de que a empresa chinesa usou modelos do ChatGPT para desenvolver sua própria tecnologia. “Acredito que a OpenAI não está nada satisfeita com isso”, disse.
Os pesquisadores do s1 afirmaram que conseguiram atingir o desempenho em raciocínio e em test-time scaling – aquele que faz o modelo de IA pensar mais antes de responder o comando. Se confirmado, isso significa que o s1 já alcançou a capacidade do modelo o1 da OpenAI e da DeepSeek.

A publicação de Stanford e Washington sugere que modelos de raciocínio podem ser destilados com um conjunto de dados relativamente pequeno se o processo usado para isso for supervisionado (supervised fine-tuning ou SFT), no qual um modelo de IA é instruído a imitar comportamentos presentes em um conjunto de dados. O SFT tende a ser mais barato do que o método de aprendizado por reforço em larga escala que a DeepSeek usou para treinar o R1.
O Google oferece acesso gratuito ao Gemini 2.0 Flash Thinking Experimental por meio do Google AI Studio, mas impõe limite diários de uso. Outra clausula nos termos do Google pode causar desconforto aos desenvolvedores que contam com a plataforma: a que proíbe engenharia reversa de seus modelos para trabalhar em serviços que concorram com suas próprias ofertas de IA. O Google não comentou sobre o assunto.
Uma concorrente indigesta para as empresas americanas foi a grande inspiração para os desenvolvedores do s1: a Qwen, uma família de modelos de código aberto focado em programação criado pela gigante Alibaba Cloud, empresa “irmã” do AliExpress.
Para treinar o s1, os pesquisadores montaram um conjunto de mil perguntas meticulosamente selecionadas, emparelhadas com respostas e o raciocínio que a máquina teria de fazer em cada uma delas.
Esse treinamento levou menos de 30 minutos e usou 16 GPUs Nvidia H100. O desempenho foi consistente em vários benchmarks de IA, segundo os pesquisadores. Niklas Muennighoff, membro de Stanford que trabalhou no projeto, disse ao TechCrunch que, atualmente, ele poderia alugar o poder de computação necessário por cerca de US$ 20.
Um truque esperto foi usado para fazer o R1 revisar seu próprio trabalho e estender seu tempo de raciocínio: eles disseram ao modelo para esperar. O simples comando de “wait” (ou espere, em português) durante o processo ajudou o modelo a fornecer respostas mais precisas.
Em 2025, Meta, Google e Microsoft planejam investir centenas de bilhões de dólares em infraestrutura de IA, na qual uma parte será destinada para treinamento de modelos da próxima geração.
O governo dos Estados Unidos também anunciou um projeto de IA, chamado de Stargate, que custará US$ 500 bilhões. A empreitada envolve a OpenAI, a SoftBank e a Oracle, além do parceiro de investimento MGX, com sede em Abu Dhabi, que é financiador inicial. “Como parte do Stargate, a Oracle, a Nvidia e a OpenAI colaborarão estreitamente para construir e operar esse sistema de computação”, disse um comunicado da OpenAI logo após o anúncio que reuniu os três presidentes dessas empresas e Donald Trump.