LogQuant: Log-verteilte 2-Bit-Quantisierung des KV-Cache mit überlegener Genauigkeitserhaltung
LogQuant: Log-Distributed 2-Bit Quantization of KV Cache with Superior Accuracy Preservation
March 25, 2025
Autoren: Han Chen, Zicong Jiang, Zining Zhang, Bingsheng He, Pingyi Luo, Mian Lu, Yuqiang Chen
cs.AI
Zusammenfassung
Wir stellen LogQuant vor, eine bahnbrechende 2-Bit-Quantisierungstechnik für den KV-Cache bei der Inferenz von großen Sprachmodellen (LLMs), die erhebliche Speichereinsparungen bietet, während sie gleichzeitig eine überlegene Leistung beibehält. Bisherige Methoden gehen entweder davon aus, dass spätere Token wichtiger sind, oder versuchen, wichtige Token basierend auf früheren Aufmerksamkeitsmustern vorherzusagen. Beide Ansätze können jedoch zu Leistungsengpässen oder häufigen Fehlvorhersagen führen.
LogQuant verfolgt einen anderen Ansatz. Durch die Anwendung eines log-basierten Filtermechanismus komprimiert es den KV-Cache selektiv über den gesamten Kontext hinweg und erreicht dabei eine bessere Leistung bei gleichem oder sogar reduziertem Speicherbedarf im Vergleich zu bestehenden Methoden. In Benchmark-Tests steigert es den Durchsatz um 25 % und erhöht die Batch-Größe um 60 %, ohne den Speicherverbrauch zu erhöhen. Bei anspruchsvollen Aufgaben wie Mathematik- und Code-Vervollständigung verbessert LogQuant die Genauigkeit um 40 % bis 200 % bei gleichem Kompressionsverhältnis und übertrifft damit vergleichbare Techniken.
LogQuant lässt sich nahtlos in gängige Inferenz-Frameworks wie die Python-Bibliothek „transformers“ integrieren. Die Implementierung ist unter https://github.com/Concyclics/LogQuantKV verfügbar.
English
We introduce LogQuant, a groundbreaking 2-bit quantization technique for KV
Cache in large language model (LLM) inference, delivering substantial memory
savings while preserving superior performance. Previous methods either assume
that later tokens are more important or attempt to predict important tokens
based on earlier attention patterns. Both approaches, however, can result in
performance bottlenecks or frequent mispredictions.
LogQuant takes a different approach. By applying a log-based filtering
mechanism, it selectively compresses the KV Cache across the entire context,
achieving better performance with the same or even reduced memory footprint
compared to existing methods. In benchmark tests, it enhances throughput by 25%
and boosts batch size by 60% without increasing memory consumption. For
challenging tasks such as Math and Code Completion, LogQuant improves accuracy
by 40% to 200% at the same compression ratio, outperforming comparable
techniques.LogQuant integrates effortlessly with popular inference frameworks
like Python's transformers library. Implementation can be available in
https://github.com/Concyclics/LogQuantKV.Summary
AI-Generated Summary