Relatório Técnico do Qwen2.5

Qwen2.5 Technical Report

December 19, 2024
Autores: Qwen, An Yang, Baosong Yang, Beichen Zhang, Binyuan Hui, Bo Zheng, Bowen Yu, Chengyuan Li, Dayiheng Liu, Fei Huang, Haoran Wei, Huan Lin, Jian Yang, Jianhong Tu, Jianwei Zhang, Jianxin Yang, Jiaxi Yang, Jingren Zhou, Junyang Lin, Kai Dang, Keming Lu, Keqin Bao, Kexin Yang, Le Yu, Mei Li, Mingfeng Xue, Pei Zhang, Qin Zhu, Rui Men, Runji Lin, Tianhao Li, Tingyu Xia, Xingzhang Ren, Xuancheng Ren, Yang Fan, Yang Su, Yichang Zhang, Yu Wan, Yuqiong Liu, Zeyu Cui, Zhenru Zhang, Zihan Qiu
cs.AI

Resumo

Neste relatório, apresentamos o Qwen2.5, uma série abrangente de grandes modelos de linguagem (LLMs) projetados para atender a diversas necessidades. Em comparação com iterações anteriores, o Qwen 2.5 foi significativamente aprimorado durante as fases de pré-treinamento e pós-treinamento. Em termos de pré-treinamento, escalamos os conjuntos de dados de pré-treinamento de alta qualidade de 7 trilhões de tokens anteriores para 18 trilhões de tokens. Isso fornece uma base sólida para o senso comum, conhecimento especializado e capacidades de raciocínio. Em termos de pós-treinamento, implementamos um refinamento supervisionado intricado com mais de 1 milhão de amostras, bem como aprendizado por reforço em múltiplos estágios. As técnicas de pós-treinamento aprimoram a preferência humana e melhoram significativamente a geração de texto longo, análise de dados estruturais e seguimento de instruções. Para lidar eficazmente com casos de uso diversos e variados, apresentamos a série Qwen2.5 LLM em tamanhos variados. As ofertas de peso aberto incluem modelos base e ajustados para instruções, com versões quantizadas disponíveis. Além disso, para soluções hospedadas, os modelos proprietários atualmente incluem duas variantes de mistura de especialistas (MoE): Qwen2.5-Turbo e Qwen2.5-Plus, ambos disponíveis no Alibaba Cloud Model Studio. O Qwen2.5 demonstrou um desempenho de alto nível em uma ampla gama de benchmarks avaliando compreensão de linguagem, raciocínio, matemática, codificação, alinhamento de preferência humana, etc. Especificamente, o carro-chefe de peso aberto Qwen2.5-72B-Instruct supera vários modelos abertos e proprietários e demonstra desempenho competitivo com o modelo de peso aberto de última geração, Llama-3-405B-Instruct, que é cerca de 5 vezes maior. O Qwen2.5-Turbo e o Qwen2.5-Plus oferecem uma relação custo-eficácia superior, mantendo um desempenho competitivo contra o GPT-4o-mini e o GPT-4o, respectivamente. Além disso, como base, os modelos Qwen2.5 foram fundamentais no treinamento de modelos especializados, como Qwen2.5-Math, Qwen2.5-Coder, QwQ e modelos multimodais.
English
In this report, we introduce Qwen2.5, a comprehensive series of large language models (LLMs) designed to meet diverse needs. Compared to previous iterations, Qwen 2.5 has been significantly improved during both the pre-training and post-training stages. In terms of pre-training, we have scaled the high-quality pre-training datasets from the previous 7 trillion tokens to 18 trillion tokens. This provides a strong foundation for common sense, expert knowledge, and reasoning capabilities. In terms of post-training, we implement intricate supervised finetuning with over 1 million samples, as well as multistage reinforcement learning. Post-training techniques enhance human preference, and notably improve long text generation, structural data analysis, and instruction following. To handle diverse and varied use cases effectively, we present Qwen2.5 LLM series in rich sizes. Open-weight offerings include base and instruction-tuned models, with quantized versions available. In addition, for hosted solutions, the proprietary models currently include two mixture-of-experts (MoE) variants: Qwen2.5-Turbo and Qwen2.5-Plus, both available from Alibaba Cloud Model Studio. Qwen2.5 has demonstrated top-tier performance on a wide range of benchmarks evaluating language understanding, reasoning, mathematics, coding, human preference alignment, etc. Specifically, the open-weight flagship Qwen2.5-72B-Instruct outperforms a number of open and proprietary models and demonstrates competitive performance to the state-of-the-art open-weight model, Llama-3-405B-Instruct, which is around 5 times larger. Qwen2.5-Turbo and Qwen2.5-Plus offer superior cost-effectiveness while performing competitively against GPT-4o-mini and GPT-4o respectively. Additionally, as the foundation, Qwen2.5 models have been instrumental in training specialized models such as Qwen2.5-Math, Qwen2.5-Coder, QwQ, and multimodal models.

Summary

AI-Generated Summary

PDF3409December 20, 2024