Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elvis
Construindo com agentes de IA @dair_ai • Anterior: Meta AI, Galactica LLM, Elastic, PaperswithCode, PhD • Compartilho insights sobre como construir com LLMs e agentes de ⬇️ IA
A realidade é que todos nós deveríamos tentar construir nosso próprio colega de trabalho axente ideal.
O Cowork da Anthropic sinaliza uma nova onda de ferramentas de orquestração de agentes no horizonte.
Não se trata apenas de facilitar o uso do Claude Code.
Na minha opinião, trata-se mais de construir interfaces intuitivas para interagir, gerenciar e orquestrar agentes para serem mais produtivos com IA.
Há espaço para inovação na forma como a comunicação entre humanos e agentes (e vice-versa) acontece. E quero dizer em todos os lugares e todos os domínios que você possa imaginar.
Com o surgimento de Skills e plugins, qualquer pessoa pode criar experiências poderosas com esses agentes e ferramentas. Você não precisa ser técnico para atrapalhar e desenvolver habilidades criativas e extremamente úteis (seja para trabalho, projeto pessoal ou até mesmo uma startup). Você precisa ter bom gosto no domínio em que atua, prestar muita atenção à tecnologia emergente de IA, experimentar incansavelmente, construir contexto e construir com uma mentalidade de composição.
Tempos emocionantes pela frente. É hora de construir!

103
Vale a pena o Agentic RAG?
Os sistemas RAG evoluíram de simples pipelines de retriever-generator para fluxos de trabalho sofisticados. Ainda não está claro quando usar o Enhanced RAG (pipelines fixos com módulos dedicados) versus o Agentic RAG (o LLM orquestra todo o processo dinamicamente).
Esta pesquisa fornece a primeira comparação empírica.
O RAG aprimorado adiciona componentes pré-definidos para tratar fraquezas específicas: roteadores para determinar se a recuperação é necessária, reescritores de consultas para melhorar o alinhamento e reclassificadores para refinar a seleção de documentos. O fluxo de trabalho é fixo e manualmente engenheirado.
O RAG agential adota uma abordagem diferente. O LLM decide quais ações realizar, quando realizá-las e se iterar. Sem componentes extras além da base de conhecimento básica, retriever e gerador. O modelo controla tudo.
Os pesquisadores avaliaram ambos os paradigmas em quatro dimensões em tarefas de QA e recuperação de informação.
Tratamento da intenção do usuário: Agentic supera ligeiramente o Enhanced na maioria das tarefas, mas o Enhanced vence decisivamente no FEVER (+28,8 pontos F1), onde o agente frequentemente recupera desnecessariamente.
Reescrita de consultas: O RAG Agentic atinge uma média de NDCG@10 de 55,6 em comparação com 52,8 do Enhanced, mostrando que o agente pode reescrever consultas de forma adaptativa quando benéfico.
Refinamento do documento: RAG aprimorado com reclassificação (49,5 NDCG@10) supera o Agentic (43,9). Módulos dedicados de reranker superam tentativas de recuperação iterativa.
O RAG agente é muito mais sensível à capacidade do modelo. Com modelos mais fracos, o RAG aprimorado mantém a estabilidade enquanto o desempenho do agente se degrada significativamente.
A análise de custos revela que o Agentic RAG exige de 2 a 10 vezes mais tempo de computação e tokens devido ao raciocínio em múltiplas etapas.
A escolha entre RAG Aprimorado e Agente depende das suas limitações. O RAG aprimorado oferece previsibilidade, custos mais baixos e estabilidade com modelos mais fracos. O RAG agente oferece flexibilidade, mas exige modelos mais fortes e mais capacidade de cálculo.
Papel:
Aprenda a construir sistemas Agentic RAG eficazes em nossa academia:

155
Solução simples de memória para tarefas de longo prazo.

DAIR.AI15 de jan., 22:22
Gerenciamento Autônomo de Memória em Agentes LLM
Agentes de LLM têm dificuldades com tarefas de longo prazo devido ao excesso de contexto.
À medida que o histórico de interação cresce, os custos computacionais explodem, a latência aumenta e o raciocínio se degrada devido à distração causada por erros passados irrelevantes.
A abordagem padrão é apenas de addicção: cada pensamento, chamada de ferramenta e resposta se acumula permanentemente. Isso funciona para tarefas curtas, mas garante o fracasso para exploração complexa.
Esta pesquisa apresenta o Focus, uma arquitetura centrada em agentes inspirada no mofo viscoso (Physarum polycephalum). A visão biológica: os organismos não mantêm registros perfeitos de cada movimento em um labirinto. Eles mantêm o mapa erudito.
O foco dá aos agentes dois novos primitivos: start_focus e complete_focus. O agente decide autonomamente quando consolidar os aprendizados em um bloco persistente de Conhecimento e pode ativamente o histórico bruto de interação. Sem temporizadores externos ou heurísticas forçando compressão.
Ele declara o que você está investigando, explora usando ferramentas padrão e depois consolida resumindo o que foi tentado, o que foi aprendido e o resultado. O sistema adiciona isso a um bloco persistente de Conhecimento e exclui tudo entre o checkpoint e a etapa atual.
Isso converte o contexto crescente monotonamente em um padrão de dentes de serra: crescimento durante a exploração, colapso durante a consolidação.
A avaliação no SWE-bench Lite com Claude Haiku 4.5 mostra que o Focus alcança uma redução de 22,7% nos tokens (14,9 milhões a 11,5 milhões de tokens) mantendo a mesma precisão (60% tanto para a linha base quanto para a Focus). Casos individuais mostraram economias de até 57%.
Incentivos agressivos importam. O incentivo passivo gerou apenas 6% de economia. Instruções explícitas para comprimir a cada 10-15 chamadas de ferramenta, com lembretes do sistema, aumentaram as compressões de 2.0 para 6.0 por tarefa.
Modelos capazes podem autorregular seu contexto de forma autônoma quando recebem ferramentas e prompts apropriados, abrindo caminhos para sistemas agentiais conscientes de custos sem sacrificar o desempenho da tarefa.
Papel:
Aprenda a construir agentes de IA eficazes em nossa academia:

46
Melhores
Classificação
Favoritos
