跳轉至主要內容
行情
掃鏈
追蹤
信號
跟單
兌換
資產
邀請計劃
更多
產品
DeFi
市場
安全中心
開發者中心
X Layer
探索 X Layer
X Layer 瀏覽器
跨鏈橋
開發者文檔
測試網水龍頭
GitHub
Wallet API
探索 Wallet API
API 文檔
API Key 管理
區塊鏈瀏覽器
DApp 連接錢包
Boost
X Launch
參與 X Launch,搶先賺新幣
X Campaign
參與活動,贏取豐厚獎勵
獎勵中心
領取獎勵和空投
預警
語言
貨幣
顏色設置
下載 OKX Wallet
Web3 指南
公告
返回
繁體中文
简体中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
日本語
Norsk (bokmål)
Suomi
Svenska
Türkçe
返回
返回
學院
幫助中心
熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
Hosico
+10.93%
USELESS
+2.72%
IKUN
-0.52%
gib
-0.45%
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
Bonk
-1.24%
ALON
+6.04%
LAUNCHCOIN
-0.74%
GOONC
-0.09%
KLED
-11.2%
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
BOOP
-0.02%
Boopa
+3.07%
PORK
0.00%
主頁
elvis
使用 AI 代理進行構建 @dair_ai • 上一篇: Meta AI、Galactica、LLM、Elastic、PaperswithCode、博士 • 我分享瞭如何使用 LLM 和 AI 代理⬇️進行構建的見解
查看原文
elvis
15 小時前
現實是,我們都應該努力建立自己理想的自主同事。 Anthropic 的 Cowork 預示著一波新的代理協調工具即將來臨。 這不僅僅是讓使用 Claude Code 變得簡單。 在我看來,更重要的是建立直觀的界面,以便與代理互動、管理和協調,使 AI 更加高效。 在人與代理(反之亦然)之間的溝通方式上仍有創新的空間。我是指你能想像的每一個地方和每一個領域。 隨著技能和插件的興起,任何人都可以利用這些代理和工具構建強大的體驗。你不需要具備技術背景就能顛覆並創建創意十足且極具實用性的技能(無論是為了工作、個人項目,甚至是創業)。你需要對你所處的領域有良好的品味,密切關注新興的 AI 技術,持續實驗,建立背景,並以複利的心態進行構建。 前方是令人興奮的時刻。是時候開始建設了!
56
elvis
19 小時前
Agentic RAG 值得嗎? RAG 系統已從簡單的檢索-生成管道演變為複雜的工作流程。何時使用增強型 RAG(固定管道與專用模組)與 Agentic RAG(LLM 動態協調整個過程)仍不清楚。 這項研究提供了首個實證比較。 增強型 RAG 增加了預定義的組件以解決特定的弱點:路由器用於判斷是否需要檢索,查詢重寫器用於改善對齊,重排序器用於精煉文件選擇。工作流程是固定的,並且是手動設計的。 Agentic RAG 採取不同的方法。LLM 決定執行哪些操作、何時執行以及是否需要迭代。除了基本的知識庫、檢索器和生成器之外,沒有額外的組件。模型控制一切。 研究人員在 QA 和信息檢索任務中評估了這兩種範式的四個維度。 用戶意圖處理:在大多數任務中,Agentic 稍微超越增強型,但在 FEVER 上增強型明顯獲勝(+28.8 F1 分),因為代理經常不必要地檢索。 查詢重寫:Agentic RAG 的平均 NDCG@10 為 55.6,而增強型為 52.8,顯示代理可以在有利時自適應地重寫查詢。 文件精煉:增強型 RAG 與重排序(49.5 NDCG@10)超越 Agentic(43.9)。專用的重排序模組優於迭代檢索嘗試。 Agentic RAG 對模型能力的敏感度更高。使用較弱的模型時,增強型 RAG 維持穩定,而 Agentic 的性能顯著下降。 成本分析顯示,Agentic RAG 由於多步推理需要 2-10 倍的計算時間和標記。 在增強型和 Agentic RAG 之間的選擇取決於您的限制。增強型 RAG 提供可預測性、較低的成本和在較弱模型下的穩定性。Agentic RAG 提供靈活性,但需要更強的模型和更多的計算。 論文: 在我們的學院學習如何構建有效的 Agentic RAG 系統:
104
elvis
1月15日 23:01
長期任務的簡單記憶解決方案。
DAIR.AI
1月15日 22:22
自主記憶管理於 LLM 代理人 LLM 代理人在長期任務中因為上下文膨脹而掙扎。 隨著互動歷史的增長,計算成本激增,延遲增加,推理因無關的過去錯誤而受到干擾。 標準方法是僅附加:每個想法、工具調用和回應都會永久累積。這對於短期任務有效,但對於複雜的探索則保證失敗。 本研究介紹了 Focus,一種受黏菌(Physarum polycephalum)啟發的以代理人為中心的架構。生物學的見解:生物體不會保留每次通過迷宮的每一個動作的完美記錄。它們保留的是學習到的地圖。 Focus 為代理人提供了兩個新的原語:start_focus 和 complete_focus。代理人自主決定何時將學習整合到持久的知識區塊中,並主動修剪原始的互動歷史。沒有外部計時器或啟發式方法強制壓縮。 它聲明你正在調查的內容,使用標準工具進行探索,然後通過總結所嘗試的內容、所學到的知識和結果來整合。系統將這些附加到持久的知識區塊中,並刪除檢查點與當前步驟之間的所有內容。 這將單調增加的上下文轉換為鋸齒形模式:在探索期間增長,在整合期間崩潰。 在 SWE-bench Lite 上使用 Claude Haiku 4.5 的評估顯示,Focus 實現了 22.7% 的標記減少(從 14.9M 減少到 11.5M 標記),同時保持相同的準確性(基準和 Focus 均為 60%)。個別實例顯示節省高達 57%。 積極的提示很重要。被動提示僅產生 6% 的節省。明確指示每 10-15 次工具調用進行壓縮,並提供系統提醒,將每個任務的壓縮次數從 2.0 增加到 6.0。 有能力的模型在給予適當的工具和提示時可以自主調節其上下文,為不犧牲任務性能的成本意識代理系統開辟了道路。 論文: 在我們的學院學習如何建立有效的 AI 代理人:
16
熱門
排行
收藏