ChatPaper.aiChatPaper

Embodied-Reasoner: Synergie von visueller Suche, logischem Denken und Handeln für verkörperte interaktive Aufgaben

Embodied-Reasoner: Synergizing Visual Search, Reasoning, and Action for Embodied Interactive Tasks

March 27, 2025
Autoren: Wenqi Zhang, Mengna Wang, Gangao Liu, Xu Huixin, Yiwei Jiang, Yongliang Shen, Guiyang Hou, Zhe Zheng, Hang Zhang, Xin Li, Weiming Lu, Peng Li, Yueting Zhuang
cs.AI

Zusammenfassung

Jüngste Fortschritte in Deep-Thinking-Modellen haben bemerkenswerte Fähigkeiten bei mathematischen und Programmieraufgaben demonstriert. Ihre Wirksamkeit in verkörperten Domänen, die kontinuierliche Interaktion mit Umgebungen durch bildgestützte Handlungssequenzen erfordern, bleibt jedoch weitgehend unerforscht. Wir präsentieren Embodied Reasoner, ein Modell, das den o1-Stil des Schlussfolgerns auf interaktive verkörperte Suchaufgaben erweitert. Im Gegensatz zum mathematischen Denken, das sich hauptsächlich auf logische Deduktion stützt, erfordern verkörperte Szenarien räumliches Verständnis, zeitliches Denken und kontinuierliche Selbstreflexion basierend auf der Interaktionshistorie. Um diese Herausforderungen zu bewältigen, synthetisieren wir 9.3k kohärente Beobachtungs-Denk-Handlungs-Sequenzen, die 64k interaktive Bilder und 90k vielfältige Denkprozesse (Analyse, räumliches Schlussfolgern, Reflexion, Planung und Überprüfung) enthalten. Wir entwickeln eine dreistufige Trainingspipeline, die die Fähigkeiten des Modells schrittweise durch Imitationslernen, Selbstexploration mittels Ablehnungsstichproben und Selbstkorrektur durch Reflexionsoptimierung verbessert. Die Auswertung zeigt, dass unser Modell fortgeschrittene visuelle Denkmodelle deutlich übertrifft, z. B. OpenAI o1, o3-mini und Claude-3.7 um +9\%, 24\% bzw. +13\% übertrifft. Analysen zeigen, dass unser Modell weniger wiederholte Suchen und logische Inkonsistenzen aufweist, mit besonderen Vorteilen bei komplexen langfristigen Aufgaben. Auch in realen Umgebungen zeigt sich unsere Überlegenheit, während weniger wiederholte Suchen und Fälle logischer Inkonsistenz auftreten.
English
Recent advances in deep thinking models have demonstrated remarkable reasoning capabilities on mathematical and coding tasks. However, their effectiveness in embodied domains which require continuous interaction with environments through image action interleaved trajectories remains largely -unexplored. We present Embodied Reasoner, a model that extends o1 style reasoning to interactive embodied search tasks. Unlike mathematical reasoning that relies primarily on logical deduction, embodied scenarios demand spatial understanding, temporal reasoning, and ongoing self-reflection based on interaction history. To address these challenges, we synthesize 9.3k coherent Observation-Thought-Action trajectories containing 64k interactive images and 90k diverse thinking processes (analysis, spatial reasoning, reflection, planning, and verification). We develop a three-stage training pipeline that progressively enhances the model's capabilities through imitation learning, self-exploration via rejection sampling, and self-correction through reflection tuning. The evaluation shows that our model significantly outperforms those advanced visual reasoning models, e.g., it exceeds OpenAI o1, o3-mini, and Claude-3.7 by +9\%, 24\%, and +13\%. Analysis reveals our model exhibits fewer repeated searches and logical inconsistencies, with particular advantages in complex long-horizon tasks. Real-world environments also show our superiority while exhibiting fewer repeated searches and logical inconsistency cases.

Summary

AI-Generated Summary

PDF193March 28, 2025