DRT-o1: Traduzione Ottimizzata con Profonda Ragionamento tramite Lunga Catena di Pensiero
DRT-o1: Optimized Deep Reasoning Translation via Long Chain-of-Thought
December 23, 2024
Autori: Jiaan Wang, Fandong Meng, Yunlong Liang, Jie Zhou
cs.AI
Abstract
Di recente, modelli simili a O1 sono emersi come esempi rappresentativi, dimostrando l'efficacia di lunghe catene di pensiero (CoT) in compiti di ragionamento come quelli matematici e di codifica. In questo articolo, presentiamo DRT-o1, un tentativo di portare il successo del lungo CoT alla traduzione automatica neurale (MT). In particolare, considerando i libri di letteratura che potrebbero contenere similitudini e metafore, tradurre questi testi in una lingua di destinazione è molto difficile in pratica a causa delle differenze culturali. In tali casi, la traduzione letterale spesso non riesce a trasmettere efficacemente il significato inteso. Anche per traduttori umani professionisti, è necessario dedicare notevole attenzione a preservare la semantica durante l'intero processo di traduzione. Per simulare la capacità di lungo pensiero dei LLMs nella MT, prima estraiamo frasi contenenti similitudini o metafore da libri di letteratura esistenti, e poi sviluppiamo un framework multi-agente per tradurre queste frasi tramite lungo pensiero. Nel framework multi-agente, un traduttore viene utilizzato per tradurre in modo iterativo la frase di origine sotto suggerimenti forniti da un consulente. Per garantire l'efficacia dei lunghi pensieri, viene impiegato anche un valutatore per giudicare se la traduzione nel round corrente è migliore della precedente o meno. In questo modo, raccogliamo decine di migliaia di dati di MT a lungo pensiero, che vengono utilizzati per addestrare il nostro DRT-o1. I risultati sperimentali sulla traduzione letteraria dimostrano l'efficacia del DRT-o1. Utilizzando Qwen2.5-7B e Qwen2.5-14B come supporti, il miglioramento apportato da DRT-o1 raggiunge un BLEU di 7.33~8.26 e un CometScore di 1.66~3.36. Inoltre, DRT-o1-7B può superare QwQ-32B-Preview di 7.82 punti BLEU e 1.46 CometScore, dimostrandone l'efficacia. Il progetto è disponibile su https://github.com/krystalan/DRT-o1.
English
Recently, O1-like models have emerged as representative examples,
illustrating the effectiveness of long chain-of-thought (CoT) in reasoning
tasks such as math and coding tasks. In this paper, we introduce DRT-o1, an
attempt to bring the success of long CoT to neural machine translation (MT).
Specifically, in view of the literature books that might involve similes and
metaphors, translating these texts to a target language is very difficult in
practice due to cultural differences. In such cases, literal translation often
fails to convey the intended meaning effectively. Even for professional human
translators, considerable thought must be given to preserving semantics
throughout the translation process. To simulate LLMs' long thought ability in
MT, we first mine sentences containing similes or metaphors from existing
literature books, and then develop a multi-agent framework to translate these
sentences via long thought. In the multi-agent framework, a translator is used
to iteratively translate the source sentence under the suggestions provided by
an advisor. To ensure the effectiveness of the long thoughts, an evaluator is
also employed to judge whether the translation in the current round is better
than the previous one or not. In this manner, we collect tens of thousands of
long-thought MT data, which is used to train our DRT-o1. The experimental
results on literature translation demonstrate the effectiveness of the DRT-o1.
Using Qwen2.5-7B and Qwen2.5-14B as the backbones, the improvement brought by
DRT-o1 achieves 7.33~8.26 BLEU and 1.66~3.36 CometScore. Besides, DRT-o1-7B can
outperform QwQ-32B-Preview by 7.82 BLEU and 1.46 CometScore, showing its
effectiveness. The project is available at https://github.com/krystalan/DRT-o1Summary
AI-Generated Summary