Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Gestão de Memória Autónoma em Agentes LLM
Os agentes LLM enfrentam dificuldades com tarefas de longo prazo devido ao inchaço de contexto.
À medida que o histórico de interações cresce, os custos computacionais disparam, a latência aumenta e o raciocínio se degrada devido à distração por erros passados irrelevantes.
A abordagem padrão é apenas de adição: cada pensamento, chamada de ferramenta e resposta acumula-se permanentemente. Isso funciona para tarefas curtas, mas garante falha em explorações complexas.
Esta pesquisa introduz o Focus, uma arquitetura centrada no agente inspirada no bolor de limo (Physarum polycephalum). A percepção biológica: os organismos não mantêm registros perfeitos de cada movimento através de um labirinto. Eles retêm o mapa aprendido.
O Focus dá aos agentes duas novas primitivas: start_focus e complete_focus. O agente decide autonomamente quando consolidar aprendizados em um bloco de Conhecimento persistente e poda ativamente o histórico de interações brutas. Sem temporizadores externos ou heurísticas forçando a compressão.
Ele declara o que você está investigando, explora usando ferramentas padrão e, em seguida, consolida resumindo o que foi tentado, o que foi aprendido e o resultado. O sistema anexa isso a um bloco de Conhecimento persistente e exclui tudo entre o ponto de verificação e o passo atual.
Isso converte um contexto que aumenta monotonamente em um padrão de dente de serra: crescimento durante a exploração, colapso durante a consolidação.
A avaliação no SWE-bench Lite com Claude Haiku 4.5 mostra que o Focus alcança uma redução de 22,7% nos tokens (de 14,9M para 11,5M tokens) enquanto mantém a mesma precisão (60% tanto para a linha de base quanto para o Focus). Instâncias individuais mostraram economias de até 57%.
A provocação agressiva é importante. A provocação passiva rendeu apenas 6% de economia. Instruções explícitas para comprimir a cada 10-15 chamadas de ferramenta, com lembretes do sistema, aumentaram as compressões de 2,0 para 6,0 por tarefa.
Modelos capazes podem autorregular seu contexto quando recebem ferramentas e provocações apropriadas, abrindo caminhos para sistemas agentes conscientes dos custos sem sacrificar o desempenho da tarefa.
Artigo:
Aprenda a construir agentes de IA eficazes em nossa academia:

Top
Classificação
Favoritos
