Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elvis
Bouwen met AI-agents @dair_ai • Vorige: Meta AI, Galactica LLM, Elastic, PaperswithCode, PhD • Ik deel inzichten over hoe te bouwen met LLM's en AI-agents ⬇️
De realiteit is dat we allemaal zouden moeten proberen onze eigen ideale agentieve collega te bouwen.
Anthropic's Cowork signaleert een nieuwe golf van agentenorkestratietools aan de horizon.
Het gaat niet alleen om het gemakkelijk maken van het gebruik van Claude Code.
IMO, het gaat meer om het bouwen van intuïtieve interfaces om te interageren, beheren en agenten te orkestreren om productiever te zijn met AI.
Er is ruimte voor innovatie in hoe communicatie tussen mens en agent (en vice versa) plaatsvindt. En ik bedoel overal en in elk domein dat je je kunt voorstellen.
Met de opkomst van Skills en plugins kan iedereen krachtige ervaringen bouwen met deze agenten en tools. Je hoeft niet technisch te zijn om te verstoren en creatieve en ongelooflijk nuttige vaardigheden te bouwen (of het nu voor werk, een persoonlijk project of zelfs een startup is). Je moet een goed gevoel hebben voor het domein waarin je opereert, goed letten op opkomende AI-technologie, onvermoeibaar experimenteren, context opbouwen en bouwen met een samenstellende mindset.
Spannende tijden in het vooruitzicht. Het is tijd om te bouwen!

38
Is Agentic RAG het waard?
RAG-systemen zijn geëvolueerd van eenvoudige retriever-generator pipelines naar geavanceerde workflows. Het blijft onduidelijk wanneer je Enhanced RAG (vaste pipelines met speciale modules) versus Agentic RAG (LLM coördineert het hele proces dynamisch) moet gebruiken.
Dit onderzoek biedt de eerste empirische vergelijking.
Enhanced RAG voegt vooraf gedefinieerde componenten toe om specifieke zwaktes aan te pakken: routers om te bepalen of retrieval nodig is, query herschrijvers om de afstemming te verbeteren, en rerankers om de documentselectie te verfijnen. De workflow is vast en handmatig ontworpen.
Agentic RAG neemt een andere benadering. De LLM beslist welke acties moeten worden uitgevoerd, wanneer ze moeten worden uitgevoerd en of er iteraties nodig zijn. Geen extra componenten buiten de basiskennisbasis, retriever en generator. Het model controleert alles.
De onderzoekers hebben beide paradigma's geëvalueerd over vier dimensies op QA- en informatie retrieval-taken.
Omgang met gebruikersintentie: Agentic presteert iets beter dan Enhanced op de meeste taken, maar Enhanced wint overtuigend op FEVER (+28.8 F1-punten), waar de agent vaak onnodig ophaalt.
Query herschrijven: Agentic RAG behaalt 55.6 gemiddelde NDCG@10 vergeleken met 52.8 voor Enhanced, wat aantoont dat de agent adaptief queries kan herschrijven wanneer dat voordelig is.
Documentverfijning: Enhanced RAG met reranking (49.5 NDCG@10) presteert beter dan Agentic (43.9). Toegewijde reranker-modules overtreffen iteratieve retrievalpogingen.
Agentic RAG is veel gevoeliger voor de capaciteiten van het model. Bij zwakkere modellen behoudt Enhanced RAG stabiliteit terwijl de prestaties van Agentic aanzienlijk verslechteren.
Kostenanalyse onthult dat Agentic RAG 2-10x meer rekentijd en tokens vereist vanwege multi-stap redenering.
De keuze tussen Enhanced en Agentic RAG hangt af van jouw beperkingen. Enhanced RAG biedt voorspelbaarheid, lagere kosten en stabiliteit met zwakkere modellen. Agentic RAG biedt flexibiliteit maar vereist sterkere modellen en meer rekencapaciteit.
Paper:
Leer effectieve Agentic RAG-systemen te bouwen in onze academie:

86
Eenvoudige geheugensoplossing voor taken met een lange horizon.

DAIR.AI15 jan, 22:22
Autonome Geheugenbeheer in LLM Agents
LLM agents hebben moeite met taken op lange termijn vanwege contextbloat.
Naarmate de interactiegeschiedenis groeit, exploderen de computatiekosten, neemt de latentie toe en verslechtert het redeneren door afleiding van irrelevante fouten uit het verleden.
De standaardaanpak is append-only: elke gedachte, toolaanroep en reactie accumuleert permanent. Dit werkt voor korte taken, maar garandeert falen bij complexe verkenning.
Dit onderzoek introduceert Focus, een agentgerichte architectuur geïnspireerd door slijmzwam (Physarum polycephalum). De biologische inzicht: organismen behouden geen perfecte verslagen van elke beweging door een doolhof. Ze behouden de geleerde kaart.
Focus geeft agents twee nieuwe primitieve functies: start_focus en complete_focus. De agent beslist autonoom wanneer hij leerervaringen moet consolideren in een persistente Kennisblok en snoeit actief de ruwe interactiegeschiedenis. Geen externe timers of heuristieken die compressie afdwingen.
Het verklaart wat je onderzoekt, verkent met standaardtools en consolideert vervolgens door samen te vatten wat er is geprobeerd, wat er is geleerd en de uitkomst. Het systeem voegt dit toe aan een persistente Kennisblok en verwijdert alles tussen het controlepunt en de huidige stap.
Dit converteert monotonisch toenemende context in een zaagtandpatroon: groei tijdens verkenning, ineenstorting tijdens consolidatie.
Evaluatie op SWE-bench Lite met Claude Haiku 4.5 toont aan dat Focus 22,7% tokenreductie bereikt (van 14,9M naar 11,5M tokens) terwijl de nauwkeurigheid identiek blijft (60% voor zowel baseline als Focus). Individuele gevallen toonden besparingen tot 57%.
Aggressieve prompting is belangrijk. Passieve prompting leverde slechts 6% besparingen op. Expliciete instructies om elke 10-15 toolaanroepen te comprimeren, met systeemherinneringen, verhoogden de compressies van 2,0 naar 6,0 per taak.
Capabele modellen kunnen autonoom hun context zelf reguleren wanneer ze de juiste tools en prompting krijgen, waardoor paden worden geopend voor kostenbewuste agentische systemen zonder in te boeten op taakprestaties.
Paper:
Leer effectieve AI-agents te bouwen in onze academie:

Boven
Positie
Favorieten
