Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elvis
Construirea cu agenți AI @dair_ai • Prev: Meta AI, Galactica LLM, Elastic, PaperswithCode, PhD • Împărtășesc informații despre cum să construiesc cu LLM-uri și agenți ⬇️ AI
Realitatea este că toți ar trebui să încercăm să ne construim propriul coleg agent ideal.
Cowork de la Anthropic semnalează un nou val de instrumente de orchestrare a agenților la orizont.
Nu este vorba doar despre a face ușor de folosit Claude Code.
Din punctul meu de vedere, este mai mult despre construirea unor interfețe intuitive pentru a interacționa, gestiona și orchestra agenții pentru a fi mai productivi cu AI.
Există loc pentru inovație în modul în care are loc comunicarea dintre om și agent (și invers). Și mă refer la peste tot și în toate domeniile pe care ți le poți imagina.
Odată cu apariția Skills și a pluginurilor, oricine poate construi experiențe puternice cu acești agenți și unelte. Nu trebuie să fii tehnic pentru a perturba și dezvolta abilități creative și extrem de utile (fie pentru muncă, un proiect personal sau chiar un startup). Trebuie să ai gusturi bune în domeniul în care operezi, să acorzi o atenție deosebită tehnologiei AI emergente, să experimentezi neobosit, să construiești context și să construiești cu o mentalitate cumulativă.
Vremuri palpitante aproape. E timpul să construim!

51
Merită Agentic RAG?
Sistemele RAG au evoluat de la simple conducte retriever-generator la fluxuri de lucru sofisticate. Rămâne neclar când să se folosească Enhanced RAG (pipeline-uri fixe cu module dedicate) versus Agentic RAG (LLM orchestrează întregul proces dinamic).
Această cercetare oferă prima comparație empirică.
Enhanced RAG adaugă componente predefinite pentru a remedia slăbiciuni specifice: routere pentru a determina dacă este nevoie de recuperare, rewritere de interogări pentru a îmbunătăți alinierea și rerankere pentru a rafina selecția documentelor. Fluxul de lucru este fix și proiectat manual.
Agentic RAG abordează diferit. LLM-ul decide ce acțiuni să efectueze, când să le execute și dacă să itereze. Fără componente suplimentare în afară de baza de cunoștințe de bază, retriever și generator. Modelul controlează totul.
Cercetătorii au evaluat ambele paradigme în patru dimensiuni privind sarcinile de QA și recuperare a informațiilor.
Gestionarea intenției utilizatorului: Agentic depășește ușor Enhanced la majoritatea sarcinilor, dar Enhanced câștigă decisiv la FEVER (+28,8 puncte F1), unde agentul recuperează adesea inutil.
Rescrierea interogărilor: Agentic RAG obține o medie de 55,6 NDCG@10 comparativ cu 52,8 pentru Enhanced, arătând că agentul poate rescrie adaptiv interogările atunci când este benefic.
Rafinarea documentelor: RAG îmbunătățit cu reclasificare (49,5 NDCG@10) depășește Agentic (43,9). Modulele dedicate de reclasificare depășesc încercările de recuperare iterativă.
Agentic RAG este mult mai sensibil la capacitatea modelului. La modelele mai slabe, RAG îmbunătățit menține stabilitatea, în timp ce performanța agentului scade semnificativ.
Analiza costurilor arată că Agentic RAG necesită de 2-10 ori mai mult timp de calcul și token-uri datorită raționamentului în mai mulți pași.
Alegerea între RAG Îmbunătățit și Agentic depinde de constrângerile tale. RAG îmbunătățit oferă predictibilitate, costuri mai mici și stabilitate în cazul modelelor mai slabe. Agentic RAG oferă flexibilitate, dar necesită modele mai puternice și mai multă capacitate de calcul.
Hârtie:
Învață să construiești sisteme eficiente Agentic RAG în academia noastră:

98
Soluție simplă de memorie pentru sarcini pe termen lung.

DAIR.AI15 ian., 22:22
Managementul autonom al memoriei în agenții LLM
Agenții LLM se confruntă cu sarcini pe termen lung din cauza suprasolicitării contextului.
Pe măsură ce istoricul interacțiunilor crește, costurile computaționale explodează, latența crește, iar raționamentul se degradează din cauza distragerii cauzate de erori trecute irelevante.
Abordarea standard este doar de adăugare: fiecare gând, apel la unealtă și răspuns se acumulează permanent. Acest lucru funcționează pentru sarcini scurte, dar garantează eșecul pentru explorarea complexă.
Această cercetare introduce Focus, o arhitectură centrată pe agent inspirată de mucegaiul mucus (Physarum polycephalum). Perspectiva biologică: organismele nu păstrează înregistrări perfecte ale fiecărei mișcări printr-un labirint. Ei păstrează harta învățată.
Focus oferă agenților două primitive noi: start_focus și complete_focus. Agentul decide autonom când să consolideze învățăturile într-un bloc persistent de Cunoaștere și taie activ istoricul brut al interacțiunilor. Nu există temporizatoare externe sau euristici care să forțeze compresia.
Declară ceea ce investighezi, explorează folosind instrumente standard și apoi consolidează rezumând ce s-a încercat, ce s-a învățat și rezultatul. Sistemul adaugă acest lucru unui bloc Knowledge persistent și șterge tot ce se află între punctul de control și pasul curent.
Aceasta transformă contextul monoton în creștere într-un model în formă de dinți de ferăstrău: creștere în timpul explorării, prăbușire în timpul consolidării.
Evaluarea pe SWE-bench Lite cu Claude Haiku 4.5 arată că Focus obține o reducere de 22,7% a tokenurilor (14,9M până la 11,5M tokens), menținând în același timp aceeași acuratețe (60% atât pentru baseline, cât și pentru Focus). Cazurile individuale au înregistrat economii de până la 57%.
Impulsul agresiv contează. Stimularea pasivă a adus doar 6% economii. Instrucțiuni explicite de comprimare la fiecare 10-15 apeluri de uneltă, cu memento-uri de sistem, au crescut compresiile de la 2.0 la 6.0 pe sarcină.
Modelele capabile își pot autoregla autonom contextul atunci când li se oferă instrumentele și indicațiile adecvate, deschizând căi pentru sisteme agentice conștiente de costuri fără a sacrifica performanța sarcinii.
Hârtie:
Învață să construiești agenți AI eficienți în academia noastră:

11
Limită superioară
Clasament
Favorite
