スマートでより良く、より速く、より長く:高速でメモリ効率の良い長いコンテキストのファインチューニングと推論のためのモダンな双方向エンコーダ
Smarter, Better, Faster, Longer: A Modern Bidirectional Encoder for Fast, Memory Efficient, and Long Context Finetuning and Inference
December 18, 2024
著者: Benjamin Warner, Antoine Chaffin, Benjamin Clavié, Orion Weller, Oskar Hallström, Said Taghadouini, Alexis Gallagher, Raja Biswas, Faisal Ladhak, Tom Aarsen, Nathan Cooper, Griffin Adams, Jeremy Howard, Iacopo Poli
cs.AI
要旨
BERTなどのエンコーダーのみのトランスフォーマーモデルは、より大きなデコーダーのみのモデルに比べて、リトリーバルおよび分類タスクにおいて優れたパフォーマンスとサイズのトレードオフを提供します。多くのプロダクションパイプラインで重要な役割を果たしているにも関わらず、BERTにはリリース以来、限られたパレート改善しか見られませんでした。本論文では、モダンなモデル最適化をエンコーダーのみのモデルに導入し、古いエンコーダーに比べて主要なパレート改善を実現するModernBERTを紹介します。2兆トークンで訓練され、ネイティブの8192シーケンス長を持つModernBERTモデルは、さまざまな分類タスクや異なるドメイン(コードを含む)におけるシングルおよびマルチベクトルのリトリーバルを含む幅広い評価において最先端の結果を示します。ダウンストリームのパフォーマンスが強力であるだけでなく、ModernBERTは最も高速かつメモリ効率に優れたエンコーダーであり、一般的なGPU上での推論に適しています。
English
Encoder-only transformer models such as BERT offer a great performance-size
tradeoff for retrieval and classification tasks with respect to larger
decoder-only models. Despite being the workhorse of numerous production
pipelines, there have been limited Pareto improvements to BERT since its
release. In this paper, we introduce ModernBERT, bringing modern model
optimizations to encoder-only models and representing a major Pareto
improvement over older encoders. Trained on 2 trillion tokens with a native
8192 sequence length, ModernBERT models exhibit state-of-the-art results on a
large pool of evaluations encompassing diverse classification tasks and both
single and multi-vector retrieval on different domains (including code). In
addition to strong downstream performance, ModernBERT is also the most speed
and memory efficient encoder and is designed for inference on common GPUs.Summary
AI-Generated Summary