Rapporto Tecnico Qwen2.5
Qwen2.5 Technical Report
December 19, 2024
Autori: Qwen, An Yang, Baosong Yang, Beichen Zhang, Binyuan Hui, Bo Zheng, Bowen Yu, Chengyuan Li, Dayiheng Liu, Fei Huang, Haoran Wei, Huan Lin, Jian Yang, Jianhong Tu, Jianwei Zhang, Jianxin Yang, Jiaxi Yang, Jingren Zhou, Junyang Lin, Kai Dang, Keming Lu, Keqin Bao, Kexin Yang, Le Yu, Mei Li, Mingfeng Xue, Pei Zhang, Qin Zhu, Rui Men, Runji Lin, Tianhao Li, Tingyu Xia, Xingzhang Ren, Xuancheng Ren, Yang Fan, Yang Su, Yichang Zhang, Yu Wan, Yuqiong Liu, Zeyu Cui, Zhenru Zhang, Zihan Qiu
cs.AI
Abstract
In questo rapporto, presentiamo Qwen2.5, una serie completa di grandi modelli linguistici (LLM) progettati per soddisfare esigenze diverse. Rispetto alle iterazioni precedenti, Qwen 2.5 è stato significativamente migliorato sia durante la fase di pre-training che di post-training. Per quanto riguarda il pre-training, abbiamo ampliato i dataset di pre-training di alta qualità dai precedenti 7 trilioni di token a 18 trilioni di token. Questo fornisce una solida base per il buon senso, la conoscenza esperta e le capacità di ragionamento. Per quanto riguarda il post-training, implementiamo un raffinamento supervisionato intricato con oltre 1 milione di campioni, nonché apprendimento per rinforzo multistadio. Le tecniche di post-training migliorano le preferenze umane e migliorano notevolmente la generazione di testi lunghi, l'analisi dei dati strutturali e il seguire le istruzioni. Per gestire casi d'uso diversi e variati in modo efficace, presentiamo la serie di modelli LLM Qwen2.5 in varie dimensioni. Le offerte open-weight includono modelli di base e modelli ottimizzati per le istruzioni, con versioni quantizzate disponibili. Inoltre, per le soluzioni ospitate, attualmente i modelli proprietari includono due varianti di mixture-of-experts (MoE): Qwen2.5-Turbo e Qwen2.5-Plus, entrambi disponibili da Alibaba Cloud Model Studio. Qwen2.5 ha dimostrato prestazioni di alto livello su una vasta gamma di benchmark che valutano la comprensione del linguaggio, il ragionamento, la matematica, la codifica, l'allineamento delle preferenze umane, ecc. In particolare, il modello open-weight di punta Qwen2.5-72B-Instruct supera diversi modelli open e proprietari e dimostra prestazioni competitive rispetto al modello open-weight all'avanguardia, Llama-3-405B-Instruct, che è circa 5 volte più grande. Qwen2.5-Turbo e Qwen2.5-Plus offrono un'eccellente convenienza economica pur mantenendo prestazioni competitive rispetto a GPT-4o-mini e GPT-4o rispettivamente. Inoltre, come fondamento, i modelli Qwen2.5 sono stati fondamentali per addestrare modelli specializzati come Qwen2.5-Math, Qwen2.5-Coder, QwQ e modelli multimodali.
English
In this report, we introduce Qwen2.5, a comprehensive series of large
language models (LLMs) designed to meet diverse needs. Compared to previous
iterations, Qwen 2.5 has been significantly improved during both the
pre-training and post-training stages. In terms of pre-training, we have scaled
the high-quality pre-training datasets from the previous 7 trillion tokens to
18 trillion tokens. This provides a strong foundation for common sense, expert
knowledge, and reasoning capabilities. In terms of post-training, we implement
intricate supervised finetuning with over 1 million samples, as well as
multistage reinforcement learning. Post-training techniques enhance human
preference, and notably improve long text generation, structural data analysis,
and instruction following. To handle diverse and varied use cases effectively,
we present Qwen2.5 LLM series in rich sizes. Open-weight offerings include base
and instruction-tuned models, with quantized versions available. In addition,
for hosted solutions, the proprietary models currently include two
mixture-of-experts (MoE) variants: Qwen2.5-Turbo and Qwen2.5-Plus, both
available from Alibaba Cloud Model Studio. Qwen2.5 has demonstrated top-tier
performance on a wide range of benchmarks evaluating language understanding,
reasoning, mathematics, coding, human preference alignment, etc. Specifically,
the open-weight flagship Qwen2.5-72B-Instruct outperforms a number of open and
proprietary models and demonstrates competitive performance to the
state-of-the-art open-weight model, Llama-3-405B-Instruct, which is around 5
times larger. Qwen2.5-Turbo and Qwen2.5-Plus offer superior cost-effectiveness
while performing competitively against GPT-4o-mini and GPT-4o respectively.
Additionally, as the foundation, Qwen2.5 models have been instrumental in
training specialized models such as Qwen2.5-Math, Qwen2.5-Coder, QwQ, and
multimodal models.Summary
AI-Generated Summary