Embodied-Reasoner: Synergie von visueller Suche, logischem Denken und Handeln für verkörperte interaktive Aufgaben
Embodied-Reasoner: Synergizing Visual Search, Reasoning, and Action for Embodied Interactive Tasks
March 27, 2025
Autoren: Wenqi Zhang, Mengna Wang, Gangao Liu, Xu Huixin, Yiwei Jiang, Yongliang Shen, Guiyang Hou, Zhe Zheng, Hang Zhang, Xin Li, Weiming Lu, Peng Li, Yueting Zhuang
cs.AI
Zusammenfassung
Jüngste Fortschritte in Deep-Thinking-Modellen haben bemerkenswerte
Fähigkeiten bei mathematischen und Programmieraufgaben demonstriert. Ihre
Wirksamkeit in verkörperten Domänen, die kontinuierliche Interaktion mit
Umgebungen durch bildgestützte Handlungssequenzen erfordern, bleibt jedoch weitgehend
unerforscht. Wir präsentieren Embodied Reasoner, ein Modell, das den o1-Stil des
Schlussfolgerns auf interaktive verkörperte Suchaufgaben erweitert. Im Gegensatz zum
mathematischen Denken, das sich hauptsächlich auf logische Deduktion stützt, erfordern
verkörperte Szenarien räumliches Verständnis, zeitliches Denken und kontinuierliche
Selbstreflexion basierend auf der Interaktionshistorie. Um diese Herausforderungen zu
bewältigen, synthetisieren wir 9.3k kohärente Beobachtungs-Denk-Handlungs-Sequenzen,
die 64k interaktive Bilder und 90k vielfältige Denkprozesse (Analyse, räumliches
Schlussfolgern, Reflexion, Planung und Überprüfung) enthalten. Wir entwickeln eine
dreistufige Trainingspipeline, die die Fähigkeiten des Modells schrittweise durch
Imitationslernen, Selbstexploration mittels Ablehnungsstichproben und Selbstkorrektur
durch Reflexionsoptimierung verbessert. Die Auswertung zeigt, dass unser Modell
fortgeschrittene visuelle Denkmodelle deutlich übertrifft, z. B. OpenAI o1, o3-mini und
Claude-3.7 um +9\%, 24\% bzw. +13\% übertrifft. Analysen zeigen, dass unser Modell
weniger wiederholte Suchen und logische Inkonsistenzen aufweist, mit besonderen
Vorteilen bei komplexen langfristigen Aufgaben. Auch in realen Umgebungen zeigt sich
unsere Überlegenheit, während weniger wiederholte Suchen und Fälle logischer
Inkonsistenz auftreten.
English
Recent advances in deep thinking models have demonstrated remarkable
reasoning capabilities on mathematical and coding tasks. However, their
effectiveness in embodied domains which require continuous interaction with
environments through image action interleaved trajectories remains largely
-unexplored. We present Embodied Reasoner, a model that extends o1 style
reasoning to interactive embodied search tasks. Unlike mathematical reasoning
that relies primarily on logical deduction, embodied scenarios demand spatial
understanding, temporal reasoning, and ongoing self-reflection based on
interaction history. To address these challenges, we synthesize 9.3k coherent
Observation-Thought-Action trajectories containing 64k interactive images and
90k diverse thinking processes (analysis, spatial reasoning, reflection,
planning, and verification). We develop a three-stage training pipeline that
progressively enhances the model's capabilities through imitation learning,
self-exploration via rejection sampling, and self-correction through reflection
tuning. The evaluation shows that our model significantly outperforms those
advanced visual reasoning models, e.g., it exceeds OpenAI o1, o3-mini, and
Claude-3.7 by +9\%, 24\%, and +13\%. Analysis reveals our model exhibits fewer
repeated searches and logical inconsistencies, with particular advantages in
complex long-horizon tasks. Real-world environments also show our superiority
while exhibiting fewer repeated searches and logical inconsistency cases.Summary
AI-Generated Summary