← 返回首頁

「HyperMem」透過超圖架構優化長期記憶,在 LoCoMo 基準測試中達到 92.73% 的準確率

EverMind
EverMind
@evermind
13🔁 3
𝕏 (Twitter)🔥🔥
AI 中文摘要Claude 生成

「HyperMem」透過超圖架構優化長期記憶,在 LoCoMo 基準測試中達到 92.73% 的準確率。

EverMind 團隊發表的最新論文「HyperMem: Hypergraph Memory for Long-Term Conversations」已被 ACL 2026 接收,該研究提出了一種基於超圖(Hypergraph)的分層記憶架構,旨在解決現有對話系統在處理長期記憶時的局限性。

技術架構與創新
現有的對話系統(如 RAG 或基於圖的記憶方法)多數依賴兩兩配對的關係(pairwise relations),這導致系統難以捕捉多個元素間的聯合依賴關係,進而造成檢索內容破碎。HyperMem 的核心創新在於:

  • 引入超圖結構:透過超邊(hyperedges)明確建模高階關聯,將分散的內容整合為連貫的記憶單元。
  • 分層記憶設計:將記憶結構化為「主題(topics)」、「情節(episodes)」與「事實(facts)」三個層級,並透過超邊將相關的情節與事實進行分組。
  • 混合檢索策略:設計了混合詞彙語義索引(hybrid lexical-semantic index)與由粗到細(coarse-to-fine)的檢索策略,以確保高階關聯檢索的準確性與效率。

效能表現與影響
在 LoCoMo 基準測試中,HyperMem 展現了顯著的優勢,證明了其在處理長期對話中的有效性:

  • 達到業界領先水準(State-of-the-art),在 LLM-as-a-judge 的評估指標中取得了 92.73% 的準確率。
  • 該研究反映了 EverMind 對於推動 AI 系統如何記憶、推理以及長期維持有意義互動的基礎技術承諾。

詳細研究內容請參閱:https://arxiv.org/abs/2604.08256