Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Autonom minneshantering i LLM-agenter
LLM-agenter har svårt med långsiktiga uppgifter på grund av kontextöverflöd.
När interaktionshistoriken växer exploderar beräkningskostnaderna, latensen ökar och resonemanget försämras av distraktion från irrelevanta tidigare fel.
Standardmetoden är endast append: varje tanke, verktygsrop och svar samlas permanent. Detta fungerar för korta uppgifter men garanterar misslyckande vid komplex utforskning.
Denna forskning introducerar Focus, en agentcentrerad arkitektur inspirerad av slemmögel (Physarum polycephalum). Den biologiska insikten: organismer behåller inte perfekta register över varje rörelse genom en labyrint. De behåller den inlärda kartan.
Focus ger agenter två nya primitiva: start_focus och complete_focus. Agenten bestämmer självständigt när lärdomar ska konsolideras i ett bestående kunskapsblock och beskär aktivt den råa interaktionshistoriken. Inga externa timers eller heuristiker som tvingar kompression.
Den redogör för vad du undersöker, utforskar med standardverktyg och konsoliderar sedan genom att sammanfatta vad som försöktes, vad som lärdes och resultatet. Systemet lägger till detta på ett beständigt kunskapsblock och raderar allt mellan kontrollpunkten och det aktuella steget.
Detta omvandlar monotont ökande kontext till ett sågtandsmönster: tillväxt under prospektering, kollaps under konsolidering.
Utvärdering av SWE-bench Lite med Claude Haiku 4.5 visar att Focus uppnår 22,7 % tokenreduktion (14,9 miljoner till 11,5 miljoner tokens) samtidigt som identisk noggrannhet (60 % för både baslinje och Focus) bibehålls. Enskilda fall visade besparingar på upp till 57 %.
Aggressiv uppmaning spelar roll. Passiv prompting gav bara 6 % besparing. Tydliga instruktioner att komprimera var 10-15:e verktygsanrop, med systempåminnelser, ökade komprimeringen från 2,0 till 6,0 per uppgift.
Kapabla modeller kan autonomt självreglera sin kontext när de får lämpliga verktyg och uppmaningar, vilket öppnar vägar för kostnadsmedvetna agentiska system utan att offra uppgiftsprestanda.
Papper:
Lär dig att bygga effektiva AI-agenter i vår akademi:

Topp
Rankning
Favoriter
