热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
自主内存管理在 LLM 代理中
LLM 代理在长时间任务中面临上下文膨胀的问题。
随着交互历史的增长,计算成本激增,延迟增加,推理因无关的过去错误而受到干扰,效果下降。
标准方法是仅追加:每个想法、工具调用和响应都会永久累积。这适用于短任务,但对于复杂探索则保证失败。
本研究介绍了 Focus,一种以粘菌(Physarum polycephalum)为灵感的以代理为中心的架构。生物学的见解是:生物体并不会保留每次通过迷宫的每个动作的完美记录。它们保留的是学习到的地图。
Focus 为代理提供了两个新的原语:start_focus 和 complete_focus。代理自主决定何时将学习内容整合到一个持久的知识块中,并主动修剪原始交互历史。没有外部计时器或启发式方法强制压缩。
它声明你正在调查的内容,使用标准工具进行探索,然后通过总结尝试了什么、学到了什么以及结果来进行整合。系统将此附加到持久的知识块中,并删除检查点与当前步骤之间的所有内容。
这将单调增加的上下文转换为锯齿形模式:在探索期间增长,在整合期间崩溃。
在 SWE-bench Lite 上与 Claude Haiku 4.5 的评估显示,Focus 实现了 22.7% 的令牌减少(从 14.9M 降至 11.5M 令牌),同时保持相同的准确性(基线和 Focus 均为 60%)。个别实例显示节省高达 57%。
积极的提示很重要。被动提示仅节省了 6%。明确指示每 10-15 次工具调用进行压缩,并提供系统提醒,将每个任务的压缩次数从 2.0 增加到 6.0。
能够的模型在获得适当工具和提示时可以自主调节其上下文,为不牺牲任务性能的成本意识代理系统开辟了道路。
论文:
在我们的学院学习如何构建有效的 AI 代理:

热门
排行
收藏
