ChatPaper.aiChatPaper

Salto adattivo di strati nei modelli linguistici pre-addestrati

Adaptive Layer-skipping in Pre-trained LLMs

March 31, 2025
Autori: Xuan Luo, Weizhi Wang, Xifeng Yan
cs.AI

Abstract

Sono stati proposti vari metodi di salto di strati per accelerare la generazione di token nei grandi modelli linguistici (LLM). Tuttavia, questi metodi hanno trascurato una domanda fondamentale: come variano le richieste computazionali durante la generazione di diversi token? In questo lavoro, introduciamo FlexiDepth, un metodo che regola dinamicamente il numero di strati Transformer utilizzati nella generazione di testo. Incorporando un router e un adattatore plug-in, FlexiDepth consente il salto adattivo degli strati negli LLM senza modificare i loro parametri originali. L'introduzione di FlexiDepth nel modello Llama-3-8B ha permesso di saltare 8 strati su 32, mantenendo al contempo il 100% delle prestazioni di riferimento. I risultati sperimentali con FlexiDepth dimostrano che le richieste computazionali negli LLM variano significativamente in base al tipo di token. In particolare, la generazione di token ripetitivi o frasi fisse richiede meno strati, mentre la produzione di token che implicano calcoli o alta incertezza richiede più strati. Interessante notare che questo schema di allocazione adattiva si allinea con l'intuizione umana. Per promuovere la ricerca in questo ambito, abbiamo reso open source FlexiDepth e un dataset che documenta gli schemi di allocazione degli strati di FlexiDepth per future esplorazioni.
English
Various layer-skipping methods have been proposed to accelerate token generation in large language models (LLMs). However, they have overlooked a fundamental question: How do computational demands vary across the generation of different tokens? In this work, we introduce FlexiDepth, a method that dynamically adjusts the number of Transformer layers used in text generation. By incorporating a plug-in router and adapter, FlexiDepth enables adaptive layer-skipping in LLMs without modifying their original parameters. Introducing FlexiDepth to Llama-3-8B model achieves layer skipping of 8 layers out of 32, and meanwhile maintains the full 100\% benchmark performance. Experimental results with FlexiDepth demonstrate that computational demands in LLMs significantly vary based on token type. Specifically, generating repetitive tokens or fixed phrases requires fewer layers, whereas producing tokens involving computation or high uncertainty requires more layers. Interestingly, this adaptive allocation pattern aligns with human intuition. To advance research in this area, we open sourced FlexiDepth and a dataset documenting FlexiDepth's layer allocation patterns for future exploration.

Summary

AI-Generated Summary

PDF62April 3, 2025