Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elvis
Bygga med AI-agenter @dair_ai • Föregående: Meta AI, Galactica LLM, Elastic, PaperswithCode, PhD • Jag delar med mig av insikter om hur man bygger med LLM och AI-agenter ⬇️
Verkligheten är att vi alla borde försöka bygga vår egen idealiska agentiska kollega.
Anthropic's Cowork signalerar en ny våg av agentorkestreringsverktyg vid horisonten.
Det handlar inte bara om att göra det enkelt att använda Claude Code.
Enligt min åsikt handlar det mer om att bygga intuitiva gränssnitt för att interagera, hantera och orkestrera agenter för att bli mer produktiva med AI.
Det finns utrymme för innovation i hur kommunikation mellan människa och agent (och vice versa) sker. Och jag menar överallt och i alla områden du kan tänka dig.
Med framväxten av färdigheter och plugins kan vem som helst skapa kraftfulla upplevelser med dessa agenter och verktyg. Du behöver inte vara teknisk för att störa och bygga kreativa och otroligt användbara färdigheter (antingen för jobbet, ett personligt projekt eller till och med en startup). Du behöver ha god smak inom det område du verkar i, vara noga uppmärksam på framväxande AI-teknologi, experimentera outtröttligt, bygga kontext och bygga med ett sammansatt tänkesätt.
Spännande tider väntar. Det är dags att bygga!

82
Är Agentic RAG värt det?
RAG-system har utvecklats från enkla retriever-generator-pipelines till sofistikerade arbetsflöden. Det är fortfarande oklart när man ska använda Enhanced RAG (fixed pipelines with dedicated modules) jämfört med Agentic RAG (LLM orkestrerar hela processen dynamiskt).
Denna forskning ger den första empiriska jämförelsen.
Förbättrad RAG lägger till fördefinierade komponenter för att åtgärda specifika svagheter: routrar för att avgöra om återvinning behövs, frågeomskrivare för att förbättra justering och omrankare för att förfina dokumentvalet. Arbetsflödet är fast och manuellt konstruerat.
Agentic RAG tar en annan väg. LLM bestämmer vilka handlingar som ska utföras, när de ska utföras och om de ska itereras. Inga extra komponenter utöver grundläggande kunskapsbas, retriever och generator. Modellen styr allt.
Forskarna utvärderade båda paradigmen över fyra dimensioner inom QA och informationssökning.
Användarintentionshantering: Agentic presterar något bättre än Enhanced på de flesta uppgifter, men Enhanced vinner avgörande på FEVER (+28,8 F1-poäng), där agenten ofta hämtar onödigt resultat.
Omskrivning av frågor: Agentic RAG uppnår i genomsnitt 55,6 NDCG@10 jämfört med 52,8 för förbättrade, vilket visar att agenten kan skriva om frågor adaptivt när det är fördelaktigt.
Dokumentförfining: Förbättrad RAG med omklassificering (49,5 NDCG@10) överträffar Agentic (43,9). Dedikerade reranker-moduler slår iterativa återhämtningsförsök.
Agentic RAG är mycket mer känslig för modellkapacitet. Med svagare modeller bibehåller Enhanced RAG stabiliteten medan Agentic-prestandan försämras avsevärt.
Kostnadsanalys visar att Agentic RAG kräver 2–10 gånger mer beräkningstid och tokens på grund av flerstegsresonemang.
Valet mellan Enhanced och Agentic RAG beror på dina begränsningar. Förbättrad RAG erbjuder förutsägbarhet, lägre kostnader och stabilitet med svagare modeller. Agentisk RAG ger flexibilitet men kräver starkare modeller och mer beräkningskraft.
Papper:
Lär dig att bygga effektiva Agentic RAG-system i vår akademi:

130
Enkel minneslösning för långsiktiga uppgifter.

DAIR.AI15 jan. 22:22
Autonom minneshantering i LLM-agenter
LLM-agenter har svårt med långsiktiga uppgifter på grund av kontextöverflöd.
När interaktionshistoriken växer exploderar beräkningskostnaderna, latensen ökar och resonemanget försämras av distraktion från irrelevanta tidigare fel.
Standardmetoden är endast append: varje tanke, verktygsrop och svar samlas permanent. Detta fungerar för korta uppgifter men garanterar misslyckande vid komplex utforskning.
Denna forskning introducerar Focus, en agentcentrerad arkitektur inspirerad av slemmögel (Physarum polycephalum). Den biologiska insikten: organismer behåller inte perfekta register över varje rörelse genom en labyrint. De behåller den inlärda kartan.
Focus ger agenter två nya primitiva: start_focus och complete_focus. Agenten bestämmer självständigt när lärdomar ska konsolideras i ett bestående kunskapsblock och beskär aktivt den råa interaktionshistoriken. Inga externa timers eller heuristiker som tvingar kompression.
Den redogör för vad du undersöker, utforskar med standardverktyg och konsoliderar sedan genom att sammanfatta vad som försöktes, vad som lärdes och resultatet. Systemet lägger till detta på ett beständigt kunskapsblock och raderar allt mellan kontrollpunkten och det aktuella steget.
Detta omvandlar monotont ökande kontext till ett sågtandsmönster: tillväxt under prospektering, kollaps under konsolidering.
Utvärdering av SWE-bench Lite med Claude Haiku 4.5 visar att Focus uppnår 22,7 % tokenreduktion (14,9 miljoner till 11,5 miljoner tokens) samtidigt som identisk noggrannhet (60 % för både baslinje och Focus) bibehålls. Enskilda fall visade besparingar på upp till 57 %.
Aggressiv uppmaning spelar roll. Passiv prompting gav bara 6 % besparing. Tydliga instruktioner att komprimera var 10-15:e verktygsanrop, med systempåminnelser, ökade komprimeringen från 2,0 till 6,0 per uppgift.
Kapabla modeller kan autonomt självreglera sin kontext när de får lämpliga verktyg och uppmaningar, vilket öppnar vägar för kostnadsmedvetna agentiska system utan att offra uppgiftsprestanda.
Papper:
Lär dig att bygga effektiva AI-agenter i vår akademi:

32
Topp
Rankning
Favoriter
