Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Автономное управление памятью в агентах LLM
Агенты LLM испытывают трудности с задачами долгосрочной перспективы из-за разрастания контекста.
По мере роста истории взаимодействия вычислительные затраты взлетают, увеличивается задержка, а рассуждения ухудшаются из-за отвлечения на неуместные прошлые ошибки.
Стандартный подход — только добавление: каждая мысль, вызов инструмента и ответ накапливаются навсегда. Это работает для коротких задач, но гарантирует неудачу для сложной разведки.
Это исследование представляет Focus, архитектуру, ориентированную на агента, вдохновленную слизевиком (Physarum polycephalum). Биологическая идея: организмы не сохраняют идеальные записи о каждом движении через лабиринт. Они сохраняют изученную карту.
Focus предоставляет агентам два новых примитива: start_focus и complete_focus. Агент самостоятельно решает, когда консолидировать знания в постоянный блок Знаний и активно очищает сырую историю взаимодействия. Нет внешних таймеров или эвристик, заставляющих сжимать.
Он объявляет, что вы исследуете, исследует с использованием стандартных инструментов, а затем консолидирует, подводя итоги того, что было попытано, что было изучено и каков был результат. Система добавляет это в постоянный блок Знаний и удаляет все между контрольной точкой и текущим шагом.
Это преобразует монотонно увеличивающийся контекст в зубчатый паттерн: рост во время исследования, коллапс во время консолидации.
Оценка на SWE-bench Lite с Claude Haiku 4.5 показывает, что Focus достигает 22.7% сокращения токенов (с 14.9M до 11.5M токенов), сохраняя идентичную точность (60% как для базового уровня, так и для Focus). Отдельные случаи показали экономию до 57%.
Агрессивное побуждение имеет значение. Пассивное побуждение дало лишь 6% экономии. Явные инструкции сжимать каждые 10-15 вызовов инструмента, с напоминаниями системы, увеличили сжатия с 2.0 до 6.0 на задачу.
Способные модели могут автономно саморегулировать свой контекст, когда им предоставлены соответствующие инструменты и побуждения, открывая пути для систем, учитывающих затраты, без ущерба для производительности задач.
Статья:
Научитесь создавать эффективных AI-агентов в нашей академии:

Топ
Рейтинг
Избранное
