Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Gerenciamento Autônomo de Memória em Agentes LLM
Agentes de LLM têm dificuldades com tarefas de longo prazo devido ao excesso de contexto.
À medida que o histórico de interação cresce, os custos computacionais explodem, a latência aumenta e o raciocínio se degrada devido à distração causada por erros passados irrelevantes.
A abordagem padrão é apenas de addicção: cada pensamento, chamada de ferramenta e resposta se acumula permanentemente. Isso funciona para tarefas curtas, mas garante o fracasso para exploração complexa.
Esta pesquisa apresenta o Focus, uma arquitetura centrada em agentes inspirada no mofo viscoso (Physarum polycephalum). A visão biológica: os organismos não mantêm registros perfeitos de cada movimento em um labirinto. Eles mantêm o mapa erudito.
O foco dá aos agentes dois novos primitivos: start_focus e complete_focus. O agente decide autonomamente quando consolidar os aprendizados em um bloco persistente de Conhecimento e pode ativamente o histórico bruto de interação. Sem temporizadores externos ou heurísticas forçando compressão.
Ele declara o que você está investigando, explora usando ferramentas padrão e depois consolida resumindo o que foi tentado, o que foi aprendido e o resultado. O sistema adiciona isso a um bloco persistente de Conhecimento e exclui tudo entre o checkpoint e a etapa atual.
Isso converte o contexto crescente monotonamente em um padrão de dentes de serra: crescimento durante a exploração, colapso durante a consolidação.
A avaliação no SWE-bench Lite com Claude Haiku 4.5 mostra que o Focus alcança uma redução de 22,7% nos tokens (14,9 milhões a 11,5 milhões de tokens) mantendo a mesma precisão (60% tanto para a linha base quanto para a Focus). Casos individuais mostraram economias de até 57%.
Incentivos agressivos importam. O incentivo passivo gerou apenas 6% de economia. Instruções explícitas para comprimir a cada 10-15 chamadas de ferramenta, com lembretes do sistema, aumentaram as compressões de 2.0 para 6.0 por tarefa.
Modelos capazes podem autorregular seu contexto de forma autônoma quando recebem ferramentas e prompts apropriados, abrindo caminhos para sistemas agentiais conscientes de custos sem sacrificar o desempenho da tarefa.
Papel:
Aprenda a construir agentes de IA eficazes em nossa academia:

Melhores
Classificação
Favoritos
