Neue Trends in der modernen maschinellen Übersetzung mit großen Reasoning-Modellen
New Trends for Modern Machine Translation with Large Reasoning Models
March 13, 2025
Autoren: Sinuo Liu, Chenyang Lyu, Minghao Wu, Longyue Wang, Weihua Luo, Kaifu Zhang
cs.AI
Zusammenfassung
Jüngste Fortschritte bei Large Reasoning Models (LRMs), insbesondere solchen, die Chain-of-Thought-Reasoning (CoT) nutzen, haben völlig neue Möglichkeiten für die maschinelle Übersetzung (MT) eröffnet. Dieses Positionspapier argumentiert, dass LRMs sowohl traditionelle neuronale MT als auch LLM-basierte MT-Paradigmen grundlegend verändert haben, indem sie Übersetzung als eine dynamische Denkaufgabe neu definieren, die kontextuelles, kulturelles und sprachliches Verständnis und Schlussfolgerungen erfordert. Wir identifizieren drei grundlegende Verschiebungen: 1) kontextuelle Kohärenz, bei der LRMs Mehrdeutigkeiten auflösen und Diskursstrukturen durch explizites Schlussfolgern über satzübergreifende und komplexe Kontexte oder sogar Kontextmangel bewahren; 2) kulturelle Intentionalität, die es Modellen ermöglicht, Ausgaben anzupassen, indem sie Sprecherabsicht, Publikumserwartungen und soziolinguistische Normen ableiten; 3) Selbstreflexion, bei der LRMs während der Inferenzzeit Selbstreflexion durchführen können, um potenzielle Fehler in der Übersetzung, insbesondere in extrem verrauschten Fällen, zu korrigieren, was eine bessere Robustheit im Vergleich zur einfachen X->Y-Übersetzung zeigt. Wir untersuchen verschiedene Übersetzungsszenarien, darunter stilistische Übersetzung, dokumentenbasierte Übersetzung und multimodale Übersetzung, indem wir empirische Beispiele vorstellen, die die Überlegenheit von LRMs in der Übersetzung demonstrieren. Wir identifizieren auch mehrere interessante Phänomene für LRMs in der MT, wie z.B. Auto-Pivot-Übersetzung, sowie kritische Herausforderungen wie Überlokalisierung in der Übersetzung und Inferenzeffizienz. Abschließend denken wir, dass LRMs Übersetzungssysteme nicht nur als Textkonverter, sondern als mehrsprachige kognitive Agenten neu definieren, die in der Lage sind, über die Bedeutung jenseits des Textes nachzudenken. Dieser Paradigmenwechsel erinnert uns daran, Probleme in der Übersetzung über traditionelle Übersetzungsszenarien hinaus in einem viel breiteren Kontext mit LRMs zu betrachten – was wir damit erreichen können.
English
Recent advances in Large Reasoning Models (LRMs), particularly those
leveraging Chain-of-Thought reasoning (CoT), have opened brand new possibility
for Machine Translation (MT). This position paper argues that LRMs
substantially transformed traditional neural MT as well as LLMs-based MT
paradigms by reframing translation as a dynamic reasoning task that requires
contextual, cultural, and linguistic understanding and reasoning. We identify
three foundational shifts: 1) contextual coherence, where LRMs resolve
ambiguities and preserve discourse structure through explicit reasoning over
cross-sentence and complex context or even lack of context; 2) cultural
intentionality, enabling models to adapt outputs by inferring speaker intent,
audience expectations, and socio-linguistic norms; 3) self-reflection, LRMs can
perform self-reflection during the inference time to correct the potential
errors in translation especially extremely noisy cases, showing better
robustness compared to simply mapping X->Y translation. We explore various
scenarios in translation including stylized translation, document-level
translation and multimodal translation by showcasing empirical examples that
demonstrate the superiority of LRMs in translation. We also identify several
interesting phenomenons for LRMs for MT including auto-pivot translation as
well as the critical challenges such as over-localisation in translation and
inference efficiency. In conclusion, we think that LRMs redefine translation
systems not merely as text converters but as multilingual cognitive agents
capable of reasoning about meaning beyond the text. This paradigm shift reminds
us to think of problems in translation beyond traditional translation scenarios
in a much broader context with LRMs - what we can achieve on top of it.Summary
AI-Generated Summary