ChatPaper.aiChatPaper

Fin-R1: Ein großes Sprachmodell für finanzielles Denken durch bestärkendes Lernen

Fin-R1: A Large Language Model for Financial Reasoning through Reinforcement Learning

March 20, 2025
Autoren: Zhaowei Liu, Xin Guo, Fangqi Lou, Lingfeng Zeng, Jinyi Niu, Zixuan Wang, Jiajie Xu, Weige Cai, Ziwei Yang, Xueqian Zhao, Chao Li, Sheng Xu, Dezhi Chen, Yun Chen, Zuo Bai, Liwen Zhang
cs.AI

Zusammenfassung

Reasoning Large Language Models entwickeln sich rasant in verschiedenen Domänen. Ihre Fähigkeiten zur Bewältigung komplexer finanzieller Aufgaben bedürfen jedoch noch einer eingehenden Untersuchung. In diesem Artikel stellen wir Fin-R1 vor, einen Reasoning Large Language Model, der speziell für den Finanzsektor entwickelt wurde. Fin-R1 basiert auf einer zweistufigen Architektur und nutzt einen Finanzreasoning-Datensatz, der auf der Grundlage von DeepSeek-R1 destilliert und verarbeitet wurde. Durch überwachtes Fein-Tuning (Supervised Fine-Tuning, SFT) und Reinforcement Learning (RL) zeigt Fin-R1 eine Leistung, die nahe an DeepSeek-R1 heranreicht, bei einer Parametergröße von 7 Milliarden, über eine Reihe von Finanzreasoning-Aufgaben hinweg. Es erreicht den State-of-the-Art (SOTA) in den Aufgaben FinQA und ConvFinQA unter den in unserer Bewertung betrachteten LLMs und übertrifft auch größere Modelle in anderen Aufgaben. Fin-R1 demonstriert starke Reasoning- und Entscheidungsfähigkeiten und bietet Lösungen für verschiedene Probleme, die im Finanzbereich auftreten. Unser Code ist verfügbar unter https://github.com/SUFE-AIFLM-Lab/Fin-R1.
English
Reasoning large language models are rapidly evolving across various domains. However, their capabilities in handling complex financial tasks still require in-depth exploration. In this paper, we introduce Fin-R1, a reasoning large language model specifically designed for the financial sector. Fin-R1 is built using a two-stage architecture, leveraging a financial reasoning dataset distilled and processed based on DeepSeek-R1. Through supervised fine-tuning (SFT) and reinforcement learning (RL) training, it demonstrates performance close to DeepSeek-R1 with a parameter size of 7 billion across a range of financial reasoning tasks. It achieves the state-of-the-art (SOTA) in the FinQA and ConvFinQA tasks between those LLMs in our evaluation, surpassing larger models in other tasks as well. Fin-R1 showcases strong reasoning and decision-making capabilities, providing solutions to various problems encountered in the financial domain. Our code is available at https://github.com/SUFE-AIFLM-Lab/Fin-R1.

Summary

AI-Generated Summary

PDF274March 21, 2025