Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elvis
Construindo com agentes de IA @dair_ai • Anterior: Meta AI, Galactica LLM, Elastic, PaperswithCode, PhD • Compartilho insights sobre como construir com LLMs & AI Agents ⬇️
A realidade é que todos devemos tentar construir o nosso próprio colega de trabalho ideal e agente.
O Cowork da Anthropic sinaliza uma nova onda de ferramentas de orquestração de agentes no horizonte.
Não se trata apenas de facilitar o uso do Claude Code.
Na minha opinião, trata-se mais de construir interfaces intuitivas para interagir, gerir e orquestrar agentes para serem mais produtivos com a IA.
Há espaço para inovação na forma como a comunicação entre humanos e agentes (e vice-versa) acontece. E quero dizer em todos os lugares e em todos os domínios que você pode imaginar.
Com o surgimento de Skills e plugins, qualquer um pode construir experiências poderosas com esses agentes e ferramentas. Você não precisa ser técnico para disruptar e construir habilidades criativas e incrivelmente úteis (seja para trabalho, um projeto pessoal ou até mesmo uma startup). Você precisa ter bom gosto no domínio em que está a operar, prestar atenção às tecnologias emergentes de IA, experimentar incansavelmente, construir contexto e construir com uma mentalidade de acumulação.
Tempos emocionantes à frente. É hora de construir!

42
Vale a pena o Agentic RAG?
Os sistemas RAG evoluíram de simples pipelines de recuperador-gerador para fluxos de trabalho sofisticados. Continua a não estar claro quando usar o Enhanced RAG (pipelines fixos com módulos dedicados) em vez do Agentic RAG (LLM orquestra todo o processo de forma dinâmica).
Esta pesquisa fornece a primeira comparação empírica.
O Enhanced RAG adiciona componentes pré-definidos para abordar fraquezas específicas: routers para determinar se a recuperação é necessária, reescritores de consultas para melhorar o alinhamento e rerankers para refinar a seleção de documentos. O fluxo de trabalho é fixo e engenheirado manualmente.
O Agentic RAG adota uma abordagem diferente. O LLM decide quais ações realizar, quando realizá-las e se deve iterar. Não há componentes extras além da base de conhecimento básica, recuperador e gerador. O modelo controla tudo.
Os pesquisadores avaliaram ambos os paradigmas em quatro dimensões em tarefas de QA e recuperação de informações.
Tratamento da intenção do usuário: o Agentic supera ligeiramente o Enhanced na maioria das tarefas, mas o Enhanced vence decisivamente no FEVER (+28.8 pontos F1), onde o agente frequentemente recupera desnecessariamente.
Reescrita de consultas: o Agentic RAG alcança 55.6 de NDCG@10 em média, comparado a 52.8 para o Enhanced, mostrando que o agente pode reescrever consultas de forma adaptativa quando benéfico.
Refinamento de documentos: o Enhanced RAG com reranking (49.5 NDCG@10) supera o Agentic (43.9). Módulos de reranker dedicados superam tentativas de recuperação iterativa.
O Agentic RAG é muito mais sensível à capacidade do modelo. Com modelos mais fracos, o Enhanced RAG mantém a estabilidade enquanto o desempenho do Agentic degrada significativamente.
A análise de custos revela que o Agentic RAG requer de 2 a 10 vezes mais tempo de computação e tokens devido ao raciocínio em múltiplas etapas.
A escolha entre Enhanced e Agentic RAG depende das suas restrições. O Enhanced RAG oferece previsibilidade, custos mais baixos e estabilidade com modelos mais fracos. O Agentic RAG proporciona flexibilidade, mas requer modelos mais fortes e mais computação.
Artigo:
Aprenda a construir sistemas Agentic RAG eficazes na nossa academia:

90
Solução de memória simples para tarefas de longo prazo.

DAIR.AI15/01, 22:22
Gestão de Memória Autónoma em Agentes LLM
Os agentes LLM enfrentam dificuldades com tarefas de longo prazo devido ao inchaço de contexto.
À medida que o histórico de interações cresce, os custos computacionais disparam, a latência aumenta e o raciocínio se degrada devido à distração por erros passados irrelevantes.
A abordagem padrão é apenas de adição: cada pensamento, chamada de ferramenta e resposta acumula-se permanentemente. Isso funciona para tarefas curtas, mas garante falha em explorações complexas.
Esta pesquisa introduz o Focus, uma arquitetura centrada no agente inspirada no bolor de limo (Physarum polycephalum). A percepção biológica: os organismos não mantêm registros perfeitos de cada movimento através de um labirinto. Eles retêm o mapa aprendido.
O Focus dá aos agentes duas novas primitivas: start_focus e complete_focus. O agente decide autonomamente quando consolidar aprendizados em um bloco de Conhecimento persistente e poda ativamente o histórico de interações brutas. Sem temporizadores externos ou heurísticas forçando a compressão.
Ele declara o que você está investigando, explora usando ferramentas padrão e, em seguida, consolida resumindo o que foi tentado, o que foi aprendido e o resultado. O sistema anexa isso a um bloco de Conhecimento persistente e exclui tudo entre o ponto de verificação e o passo atual.
Isso converte um contexto que aumenta monotonamente em um padrão de dente de serra: crescimento durante a exploração, colapso durante a consolidação.
A avaliação no SWE-bench Lite com Claude Haiku 4.5 mostra que o Focus alcança uma redução de 22,7% nos tokens (de 14,9M para 11,5M tokens) enquanto mantém a mesma precisão (60% tanto para a linha de base quanto para o Focus). Instâncias individuais mostraram economias de até 57%.
A provocação agressiva é importante. A provocação passiva rendeu apenas 6% de economia. Instruções explícitas para comprimir a cada 10-15 chamadas de ferramenta, com lembretes do sistema, aumentaram as compressões de 2,0 para 6,0 por tarefa.
Modelos capazes podem autorregular seu contexto quando recebem ferramentas e provocações apropriadas, abrindo caminhos para sistemas agentes conscientes dos custos sem sacrificar o desempenho da tarefa.
Artigo:
Aprenda a construir agentes de IA eficazes em nossa academia:

4
Top
Classificação
Favoritos
