L'Era degli LLM a 1 bit: Tutti i Modelli Linguistici di Grande Dimensione sono in 1,58 Bit

The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits

February 27, 2024
Autori: Shuming Ma, Hongyu Wang, Lingxiao Ma, Lei Wang, Wenhui Wang, Shaohan Huang, Li Dong, Ruiping Wang, Jilong Xue, Furu Wei
cs.AI

Abstract

Recenti ricerche, come BitNet, stanno aprendo la strada a una nuova era di Large Language Models (LLM) a 1 bit. In questo lavoro, introduciamo una variante di LLM a 1 bit, denominata BitNet b1.58, in cui ogni singolo parametro (o peso) dell'LLM è ternario {-1, 0, 1}. Questo modello eguaglia le prestazioni di un LLM Transformer a precisione completa (ad esempio, FP16 o BF16) con la stessa dimensione del modello e lo stesso numero di token di addestramento, sia in termini di perplessità che di prestazioni su task specifici, pur essendo significativamente più conveniente in termini di latenza, memoria, throughput e consumo energetico. Ancora più profondamente, l'LLM a 1,58 bit definisce una nuova legge di scala e una ricetta per l'addestramento di nuove generazioni di LLM che siano sia ad alte prestazioni che convenienti. Inoltre, abilita un nuovo paradigma computazionale e apre la porta alla progettazione di hardware specifico ottimizzato per LLM a 1 bit.
English
Recent research, such as BitNet, is paving the way for a new era of 1-bit Large Language Models (LLMs). In this work, we introduce a 1-bit LLM variant, namely BitNet b1.58, in which every single parameter (or weight) of the LLM is ternary {-1, 0, 1}. It matches the full-precision (i.e., FP16 or BF16) Transformer LLM with the same model size and training tokens in terms of both perplexity and end-task performance, while being significantly more cost-effective in terms of latency, memory, throughput, and energy consumption. More profoundly, the 1.58-bit LLM defines a new scaling law and recipe for training new generations of LLMs that are both high-performance and cost-effective. Furthermore, it enables a new computation paradigm and opens the door for designing specific hardware optimized for 1-bit LLMs.

Summary

AI-Generated Summary

PDF615143December 15, 2024