Новый стандарт памяти для языковых моделей
Исследователи из Ратгерского университета, Ant Group и Salesforce Research разработали A-MEM — инновационный фреймворк для улучшенного управления памятью ИИ-агентами. В этом фреймворке используются большие языковые модели (LLMs) и векторные представления для создания сложных структур памяти, которые существенно улучшают взаимодействие и эффективность при выполнении сложных задач.
Почему память в LLM так важна?
Эффективная память позволяет ИИ-agentам долго взаимодействовать с инструментами и пользователями, но текущие системы памяти зачастую недостаточно эффективны и не всегда поддерживают динамические изменения окружающей среды.
«Четкие структуры с фиксированными рабочими потоками агентов сильно ограничивают возможности систем адаптироваться и сохранять эффективность в новых средах», — пишут исследователи. Это ключевая проблема для LLMs, решающих комплексные задачи.
Как работает A-MEM?
A-MEM представляет агентскую архитектуру памяти, позволяющую автономное и гибкое управление для LLM-агентов. В процессе взаимодействия с окружающей средой A-MEM создает «структурированные заметки памяти», сохраняя явную информацию и метаданные, такие как время и контекст. Это позволяет быстро извлекать наиболее подходящие воспоминания и обогащать текущие задачи контекстной информацией.
Процесс создания взаимосвязей между заметками обходится без заранее заданных правил: система самостоятельно определяет, как связать новые и старые данные на основе векторной близости.
Практическое применение A-MEM
На тестовом наборе данных LoCoMo A-MEM доказал свою эффективность, опережая другие решения памяти по производительности в сложных задачах. Вычислительная эффективность фреймворка усложняет его альтернативным решениям, поскольку он требует в 10 раз меньше токенов при ответах на запросы.
Сегодня управление памятью является ключевым требованием для LLM-агентов в сложных бизнес-процессах, а код A-MEM доступен на GitHub для широкой аудитории.








