DRT-o1: Tradução Profunda Otimizada por Raciocínio Profundo via Longa Cadeia de Pensamento
DRT-o1: Optimized Deep Reasoning Translation via Long Chain-of-Thought
December 23, 2024
Autores: Jiaan Wang, Fandong Meng, Yunlong Liang, Jie Zhou
cs.AI
Resumo
Recentemente, modelos semelhantes ao O1 surgiram como exemplos representativos, ilustrando a eficácia de longas cadeias de pensamento (CoT) em tarefas de raciocínio, como tarefas de matemática e programação. Neste artigo, apresentamos o DRT-o1, uma tentativa de trazer o sucesso do longo CoT para a tradução automática neural (MT). Especificamente, considerando os livros de literatura que podem envolver comparações e metáforas, traduzir esses textos para um idioma-alvo é muito difícil na prática devido às diferenças culturais. Em tais casos, a tradução literal frequentemente falha em transmitir o significado pretendido de forma eficaz. Mesmo para tradutores humanos profissionais, é necessário dedicar bastante atenção para preservar a semântica ao longo do processo de tradução. Para simular a capacidade de longo pensamento dos LLMs na MT, primeiro extraímos frases contendo comparações ou metáforas de livros de literatura existentes e, em seguida, desenvolvemos um framework multiagente para traduzir essas frases por meio de um pensamento prolongado. No framework multiagente, um tradutor é utilizado para traduzir iterativamente a frase de origem sob as sugestões fornecidas por um orientador. Para garantir a eficácia dos pensamentos prolongados, um avaliador também é empregado para julgar se a tradução na rodada atual é melhor do que a anterior ou não. Dessa forma, coletamos dezenas de milhares de dados de MT de longo pensamento, que são usados para treinar nosso DRT-o1. Os resultados experimentais na tradução de literatura demonstram a eficácia do DRT-o1. Usando Qwen2.5-7B e Qwen2.5-14B como espinhas dorsais, a melhoria trazida pelo DRT-o1 alcança 7.33~8.26 BLEU e 1.66~3.36 CometScore. Além disso, o DRT-o1-7B pode superar o QwQ-32B-Preview em 7.82 BLEU e 1.46 CometScore, mostrando sua eficácia. O projeto está disponível em https://github.com/krystalan/DRT-o1.
English
Recently, O1-like models have emerged as representative examples,
illustrating the effectiveness of long chain-of-thought (CoT) in reasoning
tasks such as math and coding tasks. In this paper, we introduce DRT-o1, an
attempt to bring the success of long CoT to neural machine translation (MT).
Specifically, in view of the literature books that might involve similes and
metaphors, translating these texts to a target language is very difficult in
practice due to cultural differences. In such cases, literal translation often
fails to convey the intended meaning effectively. Even for professional human
translators, considerable thought must be given to preserving semantics
throughout the translation process. To simulate LLMs' long thought ability in
MT, we first mine sentences containing similes or metaphors from existing
literature books, and then develop a multi-agent framework to translate these
sentences via long thought. In the multi-agent framework, a translator is used
to iteratively translate the source sentence under the suggestions provided by
an advisor. To ensure the effectiveness of the long thoughts, an evaluator is
also employed to judge whether the translation in the current round is better
than the previous one or not. In this manner, we collect tens of thousands of
long-thought MT data, which is used to train our DRT-o1. The experimental
results on literature translation demonstrate the effectiveness of the DRT-o1.
Using Qwen2.5-7B and Qwen2.5-14B as the backbones, the improvement brought by
DRT-o1 achieves 7.33~8.26 BLEU and 1.66~3.36 CometScore. Besides, DRT-o1-7B can
outperform QwQ-32B-Preview by 7.82 BLEU and 1.46 CometScore, showing its
effectiveness. The project is available at https://github.com/krystalan/DRT-o1Summary
AI-Generated Summary