完全な注意を得るための銀の弾丸か妥協か?要約トークンベースのコンテキスト圧縮の包括的研究

A Silver Bullet or a Compromise for Full Attention? A Comprehensive Study of Gist Token-based Context Compression

December 23, 2024
著者: Chenlong Deng, Zhisong Zhang, Kelong Mao, Shuaiyi Li, Xinting Huang, Dong Yu, Zhicheng Dou
cs.AI

要旨

本研究では、大規模言語モデルにおける長い文脈処理の改善を図るため、要旨に基づくコンテキスト圧縮手法を徹底的に調査します。我々は、以下の2つの主要な問いに焦点を当てます:(1) これらの手法が完全な注意モデルをどれだけ置き換えることができるか?および(2) 圧縮によって生じる潜在的な失敗パターンは何か?多くの実験を通じて、要旨に基づく圧縮が、検索補助生成や長文書QAなどのタスクにおいてほぼ損失のないパフォーマンスを達成できる一方、合成的なリコールなどのタスクにおいて課題に直面することを示します。さらに、我々は、3つの主要な失敗パターンを特定します:境界で失われる、驚きがある場合に失われる、途中で失われる。これらの問題を緩和するために、我々は2つの効果的な戦略を提案します:細かい粒度の自己符号化により、元のトークン情報の再構築を向上させ、セグメントごとのトークン重要度推定により、トークン間の依存関係に基づいて最適化を調整します。本研究は、要旨トークンベースのコンテキスト圧縮の理解に貢献し、圧縮能力を向上させるための実践的な戦略を提供します。
English
In this work, we provide a thorough investigation of gist-based context compression methods to improve long-context processing in large language models. We focus on two key questions: (1) How well can these methods replace full attention models? and (2) What potential failure patterns arise due to compression? Through extensive experiments, we show that while gist-based compression can achieve near-lossless performance on tasks like retrieval-augmented generation and long-document QA, it faces challenges in tasks like synthetic recall. Furthermore, we identify three key failure patterns: lost by the boundary, lost if surprise, and lost along the way. To mitigate these issues, we propose two effective strategies: fine-grained autoencoding, which enhances the reconstruction of original token information, and segment-wise token importance estimation, which adjusts optimization based on token dependencies. Our work provides valuable insights into the understanding of gist token-based context compression and offers practical strategies for improving compression capabilities.

Summary

AI-Generated Summary

PDF312December 27, 2024