Qwen2.5 기술 보고서
Qwen2.5 Technical Report
December 19, 2024
저자: Qwen, An Yang, Baosong Yang, Beichen Zhang, Binyuan Hui, Bo Zheng, Bowen Yu, Chengyuan Li, Dayiheng Liu, Fei Huang, Haoran Wei, Huan Lin, Jian Yang, Jianhong Tu, Jianwei Zhang, Jianxin Yang, Jiaxi Yang, Jingren Zhou, Junyang Lin, Kai Dang, Keming Lu, Keqin Bao, Kexin Yang, Le Yu, Mei Li, Mingfeng Xue, Pei Zhang, Qin Zhu, Rui Men, Runji Lin, Tianhao Li, Tingyu Xia, Xingzhang Ren, Xuancheng Ren, Yang Fan, Yang Su, Yichang Zhang, Yu Wan, Yuqiong Liu, Zeyu Cui, Zhenru Zhang, Zihan Qiu
cs.AI
초록
이 보고서에서는 다양한 요구를 충족시키기 위해 설계된 포괄적인 대형 언어 모델 (LLM) 시리즈인 Qwen2.5를 소개합니다. 이전 버전과 비교하여 Qwen 2.5는 사전 훈련 및 사후 훈련 단계 모두에서 크게 개선되었습니다. 사전 훈련 측면에서는 이전 7조 토큰에서 18조 토큰으로 고품질 사전 훈련 데이터셋을 확장했습니다. 이는 상식, 전문 지식 및 추론 능력에 강력한 기반을 제공합니다. 사후 훈련 측면에서는 100만 개 이상의 샘플을 사용한 복잡한 지도 미세 조정 및 다단계 강화 학습을 구현했습니다. 사후 훈련 기술은 인간의 선호도를 향상시키고, 긴 텍스트 생성, 구조적 데이터 분석 및 지시 따르기를 현저히 개선합니다. 다양하고 다양한 사용 사례를 효과적으로 처리하기 위해 우리는 풍부한 크기의 Qwen2.5 LLM 시리즈를 제공합니다. 베이스 및 지시 조정 모델을 포함한 오픈 웨이트 제공물과 양자화된 버전이 있습니다. 또한 호스팅 솔루션을 위해 독점 모델로는 Qwen2.5-Turbo 및 Qwen2.5-Plus 두 가지 MoE(Mixture of Experts) 변형이 현재 Alibaba Cloud Model Studio에서 제공됩니다. Qwen2.5는 언어 이해, 추론, 수학, 코딩, 인간의 선호도 조정 등을 평가하는 다양한 벤치마크에서 최고 수준의 성능을 보여주었습니다. 특히 오픈 웨이트의 주력인 Qwen2.5-72B-Instruct는 여러 오픈 및 독점 모델을 능가하며, 약 5배 큰 최첨단 오픈 웨이트 모델인 Llama-3-405B-Instruct와 경쟁력 있는 성능을 보여줍니다. Qwen2.5-Turbo와 Qwen2.5-Plus는 GPT-4o-mini 및 GPT-4o와 각각 경쟁력 있는 성능을 발휘하면서 우수한 비용 대비 효율성을 제공합니다. 또한 Qwen2.5 모델은 Qwen2.5-Math, Qwen2.5-Coder, QwQ 및 다중 모달 모델을 훈련하는 데 중요한 역할을 하였습니다.
English
In this report, we introduce Qwen2.5, a comprehensive series of large
language models (LLMs) designed to meet diverse needs. Compared to previous
iterations, Qwen 2.5 has been significantly improved during both the
pre-training and post-training stages. In terms of pre-training, we have scaled
the high-quality pre-training datasets from the previous 7 trillion tokens to
18 trillion tokens. This provides a strong foundation for common sense, expert
knowledge, and reasoning capabilities. In terms of post-training, we implement
intricate supervised finetuning with over 1 million samples, as well as
multistage reinforcement learning. Post-training techniques enhance human
preference, and notably improve long text generation, structural data analysis,
and instruction following. To handle diverse and varied use cases effectively,
we present Qwen2.5 LLM series in rich sizes. Open-weight offerings include base
and instruction-tuned models, with quantized versions available. In addition,
for hosted solutions, the proprietary models currently include two
mixture-of-experts (MoE) variants: Qwen2.5-Turbo and Qwen2.5-Plus, both
available from Alibaba Cloud Model Studio. Qwen2.5 has demonstrated top-tier
performance on a wide range of benchmarks evaluating language understanding,
reasoning, mathematics, coding, human preference alignment, etc. Specifically,
the open-weight flagship Qwen2.5-72B-Instruct outperforms a number of open and
proprietary models and demonstrates competitive performance to the
state-of-the-art open-weight model, Llama-3-405B-Instruct, which is around 5
times larger. Qwen2.5-Turbo and Qwen2.5-Plus offer superior cost-effectiveness
while performing competitively against GPT-4o-mini and GPT-4o respectively.
Additionally, as the foundation, Qwen2.5 models have been instrumental in
training specialized models such as Qwen2.5-Math, Qwen2.5-Coder, QwQ, and
multimodal models.