Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elvis
Bygge med AI-agenter @dair_ai • Forrige: Meta AI, Galactica LLM, Elastic, PaperswithCode, PhD • Jeg deler innsikt om hvordan du bygger med LLM-er og AI-agenter ⬇️
Realiteten er at vi alle burde prøve å bygge vår egen ideelle agentiske kollega.
Anthropic's Cowork signaliserer en ny bølge av agentorkestreringsverktøy i horisonten.
Det handler ikke bare om å gjøre det enkelt å bruke Claude Code.
Etter min mening handler det mer om å bygge intuitive grensesnitt for å samhandle, administrere og orkestrere agenter for å bli mer produktive med AI.
Det er rom for innovasjon i hvordan kommunikasjon mellom mennesker (og omvendt) foregår. Og jeg mener overalt og i alle domener du kan tenke deg.
Med fremveksten av ferdigheter og plugins kan hvem som helst bygge kraftige opplevelser med disse agentene og verktøyene. Du trenger ikke være teknisk for å forstyrre og bygge kreative og utrolig nyttige ferdigheter (enten for jobb, et personlig prosjekt eller til og med en oppstart). Du må ha god smak i området du opererer i, følge nøye med på ny AI-teknologi, eksperimentere utrettelig, bygge kontekst og bygge med et sammensatt tankesett.
Spennende tider venter. Det er på tide å bygge!

39
Er Agentic RAG verdt det?
RAG-systemer har utviklet seg fra enkle retriever-generator-pipelines til sofistikerte arbeidsflyter. Det er fortsatt uklart når man skal bruke Enhanced RAG (faste pipelines med dedikerte moduler) kontra Agentic RAG (LLM orkestrerer hele prosessen dynamisk).
Denne forskningen gir den første empiriske sammenligningen.
Enhanced RAG legger til forhåndsdefinerte komponenter for å adressere spesifikke svakheter: rutere for å avgjøre om henting er nødvendig, spørringsomskrivere for å forbedre justering, og rerankere for å forbedre dokumentutvalget. Arbeidsflyten er fast og manuelt konstruert.
Agentic RAG tar en annen tilnærming. LLM-en bestemmer hvilke handlinger som skal utføres, når de skal utføres, og om de skal itereres. Ingen ekstra komponenter utover grunnleggende kunnskapsbase, retriever og generator. Modellen styrer alt.
Forskerne evaluerte begge paradigmene på fire dimensjoner innen QA og informasjonsinnhenting.
Brukerens intensjonshåndtering: Agentisk presterer litt bedre enn Enhanced på de fleste oppgaver, men Enhanced vinner avgjørende på FEVER (+28,8 F1-poeng), hvor agenten ofte henter unødvendig.
Omskriving av spørringer: Agentic RAG oppnår i gjennomsnitt 55,6 NDCG@10 sammenlignet med 52,8 for Enhanced, noe som viser at agenten kan omskrive spørringer adaptivt når det er fordelaktig.
Dokumentforbedring: Forbedret RAG med reranking (49,5 NDCG@10) overgår Agentic (43,9). Dedikerte reranker-moduler slår iterative hentingsforsøk.
Agentisk RAG er langt mer følsom for modellkapasitet. Med svakere modeller opprettholder Enhanced RAG stabiliteten, mens Agentic-ytelsen forringes betydelig.
Kostnadsanalyse viser at Agentic RAG krever 2–10 ganger mer beregningstid og tokens på grunn av flerstegs resonnement.
Valget mellom Enhanced og Agentic RAG avhenger av dine begrensninger. Enhanced RAG gir forutsigbarhet, lavere kostnader og stabilitet med svakere modeller. Agentic RAG gir fleksibilitet, men krever sterkere modeller og mer beregning.
Artikkel:
Lær å bygge effektive agentiske RAG-systemer i vår akademi:

87
Enkel minneløsning for oppgaver med lang horisont.

DAIR.AI15. jan., 22:22
Autonom minnehåndtering i LLM-agenter
LLM-agenter sliter med oppgaver på lang sikt på grunn av kontekstoppblåsing.
Etter hvert som interaksjonshistorikken vokser, eksploderer beregningskostnadene, latenstiden øker, og resonneringen forringes på grunn av distraksjon fra irrelevante tidligere feil.
Standardtilnærmingen er kun append: hver tanke, verktøykall og respons akkumuleres permanent. Dette fungerer for korte oppgaver, men garanterer fiasko ved kompleks utforskning.
Denne forskningen introduserer Focus, en agent-sentrert arkitektur inspirert av slimmugg (Physarum polycephalum). Den biologiske innsikten: organismer har ikke perfekte registreringer av hver bevegelse gjennom en labyrint. De beholder det lærte kartet.
Focus gir agenter to nye primitive: start_focus og complete_focus. Agenten bestemmer autonomt når læring skal konsolideres i en vedvarende kunnskapsblokk og beskjærer aktivt den rå interaksjonshistorikken. Ingen eksterne timere eller heuristikker som tvinger komprimering.
Den erklærer hva du undersøker, utforsker bruk av standardverktøy, og konsoliderer deretter ved å oppsummere hva som ble forsøkt, hva som ble lært, og resultatet. Systemet legger dette til en vedvarende kunnskapsblokk og sletter alt mellom sjekkpunktet og det nåværende steget.
Dette omdanner monotont økende kontekst til et sagtannmønster: vekst under leting, kollaps under konsolidering.
Evaluering av SWE-bench Lite med Claude Haiku 4.5 viser at Focus oppnår 22,7 % token-reduksjon (14,9 millioner til 11,5 millioner tokens) samtidig som den opprettholder identisk nøyaktighet (60 % for både baseline og Focus). Enkelttilfeller viste besparelser på opptil 57 %.
Aggressiv påminnelse er viktig. Passiv prompting ga bare 6 % besparelse. Eksplisitte instruksjoner om å komprimere hver 10-15. verktøykall, med systempåminnelser, økte komprimeringen fra 2,0 til 6,0 per oppgave.
Kapable modeller kan autonomt selvregulere sin kontekst når de får passende verktøy og oppfordring, og åpner veier for kostnadsbevisste agentiske systemer uten å ofre oppgaveytelsen.
Artikkel:
Lær å bygge effektive AI-agenter i vår akademi:

1
Topp
Rangering
Favoritter
