Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elvis
Membangun dengan agen AI @dair_ai • Prev: Meta AI, Galactica LLM, Elastic, PaperswithCode, PhD • Saya berbagi wawasan tentang cara membangun dengan LLM & AI Agents ⬇️
Kenyataannya adalah bahwa kita semua harus mencoba membangun rekan kerja agen ideal kita sendiri.
Cowork Anthropic menandakan gelombang baru alat orkestrasi agen di cakrawala.
Ini bukan hanya tentang memudahkan penggunaan Claude Code.
IMO, ini lebih tentang membangun antarmuka intuitif untuk berinteraksi, mengelola, dan mengatur agen agar lebih produktif dengan AI.
Ada ruang untuk inovasi dalam bagaimana komunikasi manusia-ke-agen (dan sebaliknya) terjadi. Dan maksud saya di mana-mana dan setiap domain yang dapat Anda bayangkan.
Dengan munculnya Keterampilan dan plugin, siapa pun dapat membangun pengalaman yang kuat dengan agen dan alat ini. Anda tidak perlu teknis untuk mengganggu dan membangun keterampilan kreatif dan sangat berguna (baik untuk pekerjaan, proyek pribadi, atau bahkan startup). Anda harus memiliki selera yang baik dalam domain yang Anda operasikan, memperhatikan teknologi AI yang muncul, bereksperimen tanpa henti, membangun konteks, dan membangun dengan pola pikir yang majemuk.
Masa-masa menarik di depan. Saatnya membangun!

86
Apakah Agentic RAG sepadan?
Sistem RAG telah berevolusi dari pipa retriever-generator sederhana menjadi alur kerja yang canggih. Masih belum jelas kapan harus menggunakan RAG yang Ditingkatkan (alur tetap dengan modul khusus) versus RAG Agen (LLM mengatur seluruh proses secara dinamis).
Penelitian ini memberikan perbandingan empiris pertama.
RAG yang disempurnakan menambahkan komponen yang telah ditentukan sebelumnya untuk mengatasi kelemahan tertentu: router untuk menentukan apakah pengambilan diperlukan, penulis ulang kueri untuk meningkatkan penyelarasan, dan rerank untuk menyempurnakan pemilihan dokumen. Alur kerja tetap dan direkayasa secara manual.
Agentic RAG mengambil pendekatan yang berbeda. LLM memutuskan tindakan mana yang akan dilakukan, kapan harus melakukannya, dan apakah akan meneleterasi. Tidak ada komponen tambahan di luar basis pengetahuan dasar, retriever, dan generator. Model mengontrol segalanya.
Para peneliti mengevaluasi kedua paradigma di empat dimensi pada QA dan tugas pengambilan informasi.
Penanganan maksud pengguna: Agen sedikit mengungguli Enhanced pada sebagian besar tugas, tetapi Enhanced menang dengan tegas pada FEVER (+28,8 poin F1), di mana agen sering mengambil secara tidak perlu.
Penulisan ulang kueri: RAG Agen mencapai NDCG@10 rata-rata 55,6 dibandingkan dengan 52,8 untuk Enhanced, menunjukkan agen dapat menulis ulang kueri secara adaptif saat bermanfaat.
Penyempurnaan dokumen: RAG yang disempurnakan dengan peringkat ulang (49,5 NDCG@10) mengungguli Agentic (43,9). Modul reranker khusus mengalahkan upaya pengambilan berulang.
RAG agen jauh lebih sensitif terhadap kemampuan model. Dengan model yang lebih lemah, RAG yang Ditingkatkan menjaga stabilitas sementara kinerja Agentic menurun secara signifikan.
Analisis biaya mengungkapkan Agentic RAG membutuhkan waktu komputasi dan token 2-10x lebih banyak karena penalaran multi-langkah.
Pilihan antara RAG yang Disempurnakan dan Agen tergantung pada kendala Anda. RAG yang ditingkatkan menawarkan prediktabilitas, biaya lebih rendah, dan stabilitas dengan model yang lebih lemah. RAG Agen memberikan fleksibilitas tetapi membutuhkan model yang lebih kuat dan lebih banyak komputasi.
Kertas:
Belajar membangun sistem RAG Agen yang efektif di akademi kami:

134
Solusi memori sederhana untuk tugas jangka panjang.

DAIR.AI15 Jan, 22.22
Manajemen Memori Otonom di Agen LLM
Agen LLM berjuang dengan tugas jangka panjang karena pembengkakan konteks.
Seiring berkembangnya riwayat interaksi, biaya komputasi meledak, latensi meningkat, dan penalaran menurun dari gangguan oleh kesalahan masa lalu yang tidak relevan.
Pendekatan standar hanya lampiran: setiap pikiran, panggilan alat, dan respons terakumulasi secara permanen. Ini berfungsi untuk tugas singkat tetapi menjamin kegagalan untuk eksplorasi yang kompleks.
Penelitian ini memperkenalkan Focus, arsitektur yang berpusat pada agen yang terinspirasi oleh jamur lendir (Physarum polycephalum). Wawasan biologis: organisme tidak menyimpan catatan sempurna dari setiap gerakan melalui labirin. Mereka mempertahankan peta yang dipelajari.
Fokus memberi agen dua primitif baru: start_focus dan complete_focus. Agen secara mandiri memutuskan kapan harus mengkonsolidasikan pembelajaran ke dalam blok Pengetahuan yang persisten dan secara aktif memangkas riwayat interaksi mentah. Tidak ada pengatur waktu eksternal atau heuristik yang memaksa kompresi.
Ini menyatakan apa yang Anda selidiki, mengeksplorasi menggunakan alat standar, dan kemudian mengkonsolidasikan dengan meringkas apa yang dicoba, apa yang dipelajari, dan hasilnya. Sistem menambahkan ini ke blok Pengetahuan persisten dan menghapus semua yang ada di antara pos pemeriksaan dan langkah saat ini.
Ini mengubah konteks yang meningkat secara monoton menjadi pola gigi gergaji: pertumbuhan selama eksplorasi, keruntuhan selama konsolidasi.
Evaluasi pada SWE-bench Lite dengan Claude Haiku 4.5 menunjukkan Focus mencapai pengurangan token 22,7% (14,9 juta hingga 11,5 juta token) sambil mempertahankan akurasi yang identik (60% untuk baseline dan Focus). Contoh individu menunjukkan penghematan hingga 57%.
Dorongan agresif itu penting. Prompting pasif hanya menghasilkan penghematan 6%. Instruksi eksplisit untuk mengompres setiap 10-15 panggilan alat, dengan pengingat sistem, meningkatkan kompresi dari 2.0 menjadi 6.0 per tugas.
Model yang mumpuni dapat secara mandiri mengatur konteks mereka secara mandiri ketika diberi alat dan dorongan yang sesuai, membuka jalur untuk sistem agen sadar biaya tanpa mengorbankan kinerja tugas.
Kertas:
Pelajari cara membangun agen AI yang efektif di akademi kami:

36
Teratas
Peringkat
Favorit
