Modelos de raciocínio: um desafio chamado “underthinking”

Imagem do Autor
Por AINEWS

Publicidade

Pensamento

Pesquisadores chineses descobriram uma limitação significativa em modelos de raciocínio, como o DeepSeek-R1 e o OpenAI o1. Esses modelos de IA tendem a abandonar prematuramente estratégias promissoras ao enfrentar tarefas complexas, um fenômeno conhecido como “underthinking”.

O “underthinking” ocorre quando o modelo muda rapidamente de abordagem, sem explorar completamente uma linha de raciocínio válida. Esse comportamento resulta em perda de eficiência e redução da precisão das respostas. O estudo mostra que essa tendência se intensifica à medida que a dificuldade das tarefas aumenta.

Impacto do “underthinking” na eficiência dos modelos

O “underthinking” afeta diretamente o desempenho dos modelos de raciocínio. Os pesquisadores observaram que cerca de 70% das respostas incorretas apresentavam, em algum momento, uma linha de raciocínio válida que foi interrompida prematuramente.

Além disso, quando esses modelos fornecem respostas erradas, eles consomem até 225% mais tokens computacionais do que quando acertam. Isso significa que gastam mais recursos sem obter um resultado melhor. O número de mudanças de estratégia também é 418% maior em respostas incorretas.

Essa ineficiência representa um desafio importante, especialmente em aplicações que dependem de alta precisão e economia de recursos, como em pesquisas científicas, diagnósticos médicos e análises financeiras.

Como o estudo avaliou a eficiência dos modelos

Para medir o impacto do “underthinking”, os pesquisadores desenvolveram uma métrica específica. Ela avalia o uso de tokens computacionais durante o processo de resposta, analisando quantos tokens foram realmente úteis antes de o modelo mudar de estratégia.

O estudo utilizou conjuntos de problemas desafiadores em áreas como matemática, física universitária e química. Modelos de IA avançados, como o QwQ-32B-Preview e o DeepSeek-R1-671B, foram testados para verificar a eficiência no raciocínio.

O modelo QwQ-32B-Preview tenta 25 abordagens de solução diferentes durante uma única tarefa. Mudanças frequentes de estratégia levam ao uso ineficiente de recursos. | Imagem: Wang et al.

Os resultados confirmaram que modelos baseados em raciocínio, como o OpenAI o1, apresentam uma tendência a mudar de abordagem com muita frequência, o que leva ao desperdício de recursos e a uma menor taxa de acertos.

Estudo revela que modelos de raciocínio, como DeepSeek-R1 e OpenAI o1, sofrem de
O número de tokens gerados e o número de “pensamentos” (abordagens de solução) para diferentes modelos. Em média, LLMs do tipo o1 usam 225 por cento mais tokens para respostas incorretas do que para corretas, o que se deve a 418 por cento mais mudanças de pensamento frequentes. | Imagem: Wang et al.

Proposta de solução: o método “Thought Switching Penalty” (TIP)

Para resolver o problema do “underthinking”, os pesquisadores propuseram uma abordagem inovadora chamada “Thought Switching Penalty” (TIP). Esse método visa desencorajar o modelo de IA a mudar de estratégia de forma precipitada.

O TIP funciona ajustando as probabilidades de certos tokens que indicam uma mudança de raciocínio, como palavras do tipo “alternativamente” ou “por outro lado”. Com isso, o modelo tende a explorar melhor uma linha de raciocínio antes de considerar outras possibilidades.

Após a implementação do TIP, o modelo QwQ-32B-Preview apresentou melhorias significativas. A taxa de acerto em problemas matemáticos complexos aumentou de 82,8% para 84,3%. Além disso, o modelo demonstrou um raciocínio mais consistente, reduzindo o desperdício de tokens computacionais.

O futuro dos modelos de raciocínio com IA

O estudo destaca a importância de aprimorar os modelos de raciocínio para que eles possam lidar melhor com tarefas complexas. Embora o TIP tenha se mostrado eficaz, ele representa apenas um dos primeiros passos na busca por soluções mais robustas para o “underthinking”.

Modelos de IA mais eficientes podem trazer benefícios significativos em diversas áreas, como saúde, finanças e pesquisa acadêmica. Com a evolução dessas tecnologias, espera-se que futuras versões desses modelos sejam capazes de manter um raciocínio mais profundo, explorando melhor cada abordagem antes de mudar de estratégia.

Conclusão: desafios e avanços no raciocínio da IA

O “underthinking” é um desafio real para o desenvolvimento de modelos de raciocínio avançados. No entanto, estudos como este mostram que é possível identificar e corrigir essas limitações. O método TIP demonstrou que pequenas mudanças na forma como os modelos processam informações podem levar a grandes melhorias em eficiência e precisão.

À medida que a pesquisa em IA avança, espera-se que novas soluções surjam para tornar esses modelos ainda mais inteligentes e eficazes. O futuro da inteligência artificial depende da capacidade de superar desafios como o “underthinking”, tornando a tecnologia cada vez mais confiável e poderosa.

Fonte: The Decoder

Foto de Por AINEWS
Por AINEWS

A AINEWS é a primeira plataforma brasileira dedicada exclusivamente à Inteligência Artificial. Nos dedicamos à produção diária e especializada de notícias, artigos técnicos e análises profundas sobre as últimas tendências e inovações em IA.

Ver MAIS publicações
Foto de Por AINEWS
Por AINEWS

A AINEWS é a primeira plataforma brasileira dedicada exclusivamente à Inteligência Artificial. Nos dedicamos à produção diária e especializada de notícias, artigos técnicos e análises profundas sobre as últimas tendências e inovações em IA.

Importante: os comentários e opiniões contidos neste texto são responsabilidade do autor e não necessariamente refletem a opinião da AINEWS ou de seus controladores.

Compartilhe nas redes:

Assine agora a newsletter gratuita e participe da comunidade que está liderando a transformação digital no Brasil e no mundo:

Publicidade

 Inscreva-se na NEWSLETTER

Esteja sempre um passo à frente. Assine agora a newsletter gratuita.

 Inscreva-se em nosso LinkedIn

🔥 Últimas notícias 🇧🇷