Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elvis
Budowanie za pomocą agentów AI @dair_ai • Prev: Meta AI, Galactica LLM, Elastic, PaperswithCode, PhD • Dzielę się spostrzeżeniami na temat budowania za pomocą LLM i agentów ⬇️ AI
Rzeczywistość jest taka, że wszyscy powinniśmy starać się zbudować naszego idealnego agentowego współpracownika.
Cowork od Anthropic sygnalizuje nową falę narzędzi do orkiestracji agentów na horyzoncie.
Nie chodzi tylko o to, aby ułatwić korzystanie z Claude Code.
Moim zdaniem, chodzi bardziej o budowanie intuicyjnych interfejsów do interakcji, zarządzania i orkiestracji agentów, aby być bardziej produktywnym z AI.
Jest miejsce na innowacje w tym, jak odbywa się komunikacja człowiek-agent (i odwrotnie). I mam na myśli wszędzie i w każdej dziedzinie, jaką możesz sobie wyobrazić.
Wraz z rozwojem umiejętności i wtyczek, każdy może zbudować potężne doświadczenia z tymi agentami i narzędziami. Nie musisz być techniczny, aby zakłócać i budować kreatywne oraz niesamowicie użyteczne umiejętności (czy to do pracy, projektu osobistego, czy nawet startupu). Musisz mieć dobry gust w dziedzinie, w której działasz, uważnie obserwować rozwijającą się technologię AI, nieustannie eksperymentować, budować kontekst i myśleć w sposób kumulacyjny.
Ekscytujące czasy przed nami. Czas budować!

52
Czy Agentic RAG jest tego wart?
Systemy RAG ewoluowały od prostych pipeline'ów retriever-generatorów do zaawansowanych przepływów pracy. Nadal nie jest jasne, kiedy używać Enhanced RAG (stałe pipeline'y z dedykowanymi modułami) w porównaniu do Agentic RAG (LLM dynamicznie koordynuje cały proces).
Niniejsze badanie dostarcza pierwszego empirycznego porównania.
Enhanced RAG dodaje zdefiniowane z góry komponenty, aby zająć się konkretnymi słabościami: routery do określenia, czy potrzebne jest pobieranie, przekształtniki zapytań do poprawy dopasowania oraz rerankery do udoskonalenia wyboru dokumentów. Przepływ pracy jest stały i ręcznie zaprojektowany.
Agentic RAG przyjmuje inne podejście. LLM decyduje, jakie działania podjąć, kiedy je wykonać i czy iterować. Nie ma dodatkowych komponentów poza podstawową bazą wiedzy, retrieverem i generatorem. Model kontroluje wszystko.
Badacze ocenili oba paradygmaty w czterech wymiarach w zadaniach QA i wyszukiwania informacji.
Zarządzanie intencjami użytkowników: Agentic nieznacznie przewyższa Enhanced w większości zadań, ale Enhanced zdecydowanie wygrywa w FEVER (+28,8 punktów F1), gdzie agent często pobiera niepotrzebnie.
Przekształcanie zapytań: Agentic RAG osiąga średnią NDCG@10 równą 55,6 w porównaniu do 52,8 dla Enhanced, co pokazuje, że agent może adaptacyjnie przekształcać zapytania, gdy jest to korzystne.
Udoskonalanie dokumentów: Enhanced RAG z rerankingiem (49,5 NDCG@10) przewyższa Agentic (43,9). Dedykowane moduły rerankera przewyższają iteracyjne próby pobierania.
Agentic RAG jest znacznie bardziej wrażliwy na zdolności modelu. Przy słabszych modelach Enhanced RAG utrzymuje stabilność, podczas gdy wydajność Agentic znacznie się pogarsza.
Analiza kosztów ujawnia, że Agentic RAG wymaga 2-10 razy więcej czasu obliczeniowego i tokenów z powodu wieloetapowego rozumowania.
Wybór między Enhanced a Agentic RAG zależy od twoich ograniczeń. Enhanced RAG oferuje przewidywalność, niższe koszty i stabilność przy słabszych modelach. Agentic RAG zapewnia elastyczność, ale wymaga silniejszych modeli i większej mocy obliczeniowej.
Artykuł:
Naucz się budować skuteczne systemy Agentic RAG w naszej akademii:

99
Proste rozwiązanie pamięciowe dla zadań długoterminowych.

DAIR.AI15 sty, 22:22
Zarządzanie pamięcią autonomiczną w agentach LLM
Agenci LLM mają trudności z zadaniami o długim horyzoncie z powodu nadmiaru kontekstu.
W miarę jak historia interakcji rośnie, koszty obliczeniowe eksplodują, opóźnienia wzrastają, a rozumowanie pogarsza się z powodu rozproszenia przez nieistotne błędy z przeszłości.
Standardowe podejście to tylko dodawanie: każda myśl, wywołanie narzędzia i odpowiedź trwale się kumulują. Działa to w przypadku krótkich zadań, ale gwarantuje porażkę w przypadku złożonej eksploracji.
Niniejsze badania wprowadzają Focus, architekturę skoncentrowaną na agencie, inspirowaną śluzowcem (Physarum polycephalum). Biologiczny wgląd: organizmy nie zachowują doskonałych zapisów każdego ruchu przez labirynt. Zachowują nauczoną mapę.
Focus daje agentom dwa nowe prymitywy: start_focus i complete_focus. Agent autonomicznie decyduje, kiedy skonsolidować nauki w trwałym bloku wiedzy i aktywnie przycina surową historię interakcji. Żadne zewnętrzne timery ani heurystyki nie wymuszają kompresji.
Deklaruje, co bada, eksploruje przy użyciu standardowych narzędzi, a następnie konsoliduje, podsumowując, co zostało podjęte, co zostało nauczone i jaki był wynik. System dodaje to do trwałego bloku wiedzy i usuwa wszystko pomiędzy punktem kontrolnym a bieżącym krokiem.
To przekształca monotonnie rosnący kontekst w wzór ząbkowany: wzrost podczas eksploracji, załamanie podczas konsolidacji.
Ewaluacja na SWE-bench Lite z Claude Haiku 4.5 pokazuje, że Focus osiąga 22,7% redukcji tokenów (14,9M do 11,5M tokenów), zachowując identyczną dokładność (60% zarówno dla podstawy, jak i Focus). Indywidualne przypadki wykazały oszczędności do 57%.
Agresywne podpowiadanie ma znaczenie. Pasywne podpowiadanie przyniosło tylko 6% oszczędności. Wyraźne instrukcje do kompresji co 10-15 wywołań narzędzi, z przypomnieniami systemowymi, zwiększyły kompresje z 2,0 do 6,0 na zadanie.
Zdolne modele mogą autonomicznie samoregulować swój kontekst, gdy mają odpowiednie narzędzia i podpowiedzi, otwierając drogi dla systemów agentowych świadomych kosztów, bez poświęcania wydajności zadania.
Artykuł:
Naucz się budować skuteczne agenty AI w naszej akademii:

12
Najlepsze
Ranking
Ulubione
