ChatPaper.aiChatPaper

Gemini Robotics: KI in die physische Welt bringen

Gemini Robotics: Bringing AI into the Physical World

March 25, 2025
Autoren: Gemini Robotics Team, Saminda Abeyruwan, Joshua Ainslie, Jean-Baptiste Alayrac, Montserrat Gonzalez Arenas, Travis Armstrong, Ashwin Balakrishna, Robert Baruch, Maria Bauza, Michiel Blokzijl, Steven Bohez, Konstantinos Bousmalis, Anthony Brohan, Thomas Buschmann, Arunkumar Byravan, Serkan Cabi, Ken Caluwaerts, Federico Casarini, Oscar Chang, Jose Enrique Chen, Xi Chen, Hao-Tien Lewis Chiang, Krzysztof Choromanski, David D'Ambrosio, Sudeep Dasari, Todor Davchev, Coline Devin, Norman Di Palo, Tianli Ding, Adil Dostmohamed, Danny Driess, Yilun Du, Debidatta Dwibedi, Michael Elabd, Claudio Fantacci, Cody Fong, Erik Frey, Chuyuan Fu, Marissa Giustina, Keerthana Gopalakrishnan, Laura Graesser, Leonard Hasenclever, Nicolas Heess, Brandon Hernaez, Alexander Herzog, R. Alex Hofer, Jan Humplik, Atil Iscen, Mithun George Jacob, Deepali Jain, Ryan Julian, Dmitry Kalashnikov, M. Emre Karagozler, Stefani Karp, Chase Kew, Jerad Kirkland, Sean Kirmani, Yuheng Kuang, Thomas Lampe, Antoine Laurens, Isabel Leal, Alex X. Lee, Tsang-Wei Edward Lee, Jacky Liang, Yixin Lin, Sharath Maddineni, Anirudha Majumdar, Assaf Hurwitz Michaely, Robert Moreno, Michael Neunert, Francesco Nori, Carolina Parada, Emilio Parisotto, Peter Pastor, Acorn Pooley, Kanishka Rao, Krista Reymann, Dorsa Sadigh, Stefano Saliceti, Pannag Sanketi, Pierre Sermanet, Dhruv Shah, Mohit Sharma, Kathryn Shea, Charles Shu, Vikas Sindhwani, Sumeet Singh, Radu Soricut, Jost Tobias Springenberg, Rachel Sterneck, Razvan Surdulescu, Jie Tan, Jonathan Tompson, Vincent Vanhoucke, Jake Varley, Grace Vesom, Giulia Vezzani, Oriol Vinyals, Ayzaan Wahid, Stefan Welker, Paul Wohlhart, Fei Xia, Ted Xiao, Annie Xie, Jinyu Xie, Peng Xu, Sichun Xu, Ying Xu, Zhuo Xu, Yuxiang Yang, Rui Yao, Sergey Yaroshenko, Wenhao Yu, Wentao Yuan, Jingwei Zhang, Tingnan Zhang, Allan Zhou, Yuxiang Zhou
cs.AI

Zusammenfassung

Jüngste Fortschritte bei großen multimodalen Modellen haben zur Entstehung bemerkenswerter Generalistenfähigkeiten in digitalen Domänen geführt, doch ihre Übertragung auf physische Agenten wie Roboter bleibt eine erhebliche Herausforderung. Dieser Bericht stellt eine neue Familie von KI-Modellen vor, die speziell für die Robotik entwickelt wurden und auf der Grundlage von Gemini 2.0 aufbauen. Wir präsentieren Gemini Robotics, ein fortschrittliches Vision-Language-Action (VLA)-Generalistenmodell, das in der Lage ist, Roboter direkt zu steuern. Gemini Robotics führt fließende und reaktive Bewegungen aus, um eine Vielzahl komplexer Manipulationsaufgaben zu bewältigen, und ist dabei robust gegenüber Variationen bei Objekttypen und -positionen, bewältigt unbekannte Umgebungen und folgt diversen, offenen Vokabularanweisungen. Wir zeigen, dass Gemini Robotics durch zusätzliches Fine-Tuning auf neue Fähigkeiten spezialisiert werden kann, einschließlich der Lösung langfristiger, hochgeschickter Aufgaben, des Erlernens neuer kurzfristiger Aufgaben aus nur 100 Demonstrationen und der Anpassung an völlig neue Roboter-Embodiments. Dies wird ermöglicht, weil Gemini Robotics auf dem Gemini Robotics-ER-Modell aufbaut, dem zweiten Modell, das wir in dieser Arbeit vorstellen. Gemini Robotics-ER (Embodied Reasoning) erweitert die multimodalen Denkfähigkeiten von Gemini in die physische Welt, mit verbessertem räumlichem und zeitlichem Verständnis. Dies ermöglicht Fähigkeiten, die für die Robotik relevant sind, einschließlich Objekterkennung, Zeigen, Trajektorien- und Greifvorhersage sowie Multi-View-Korrespondenz und 3D-Bounding-Box-Vorhersagen. Wir zeigen, wie diese neuartige Kombination eine Vielzahl von Robotikanwendungen unterstützen kann. Wir diskutieren und behandeln auch wichtige Sicherheitsaspekte im Zusammenhang mit dieser neuen Klasse von Robotik-Grundmodellen. Die Gemini Robotics-Familie markiert einen bedeutenden Schritt hin zur Entwicklung von Allzweckrobotern, die das Potenzial der KI in der physischen Welt realisieren.
English
Recent advancements in large multimodal models have led to the emergence of remarkable generalist capabilities in digital domains, yet their translation to physical agents such as robots remains a significant challenge. This report introduces a new family of AI models purposefully designed for robotics and built upon the foundation of Gemini 2.0. We present Gemini Robotics, an advanced Vision-Language-Action (VLA) generalist model capable of directly controlling robots. Gemini Robotics executes smooth and reactive movements to tackle a wide range of complex manipulation tasks while also being robust to variations in object types and positions, handling unseen environments as well as following diverse, open vocabulary instructions. We show that with additional fine-tuning, Gemini Robotics can be specialized to new capabilities including solving long-horizon, highly dexterous tasks, learning new short-horizon tasks from as few as 100 demonstrations and adapting to completely novel robot embodiments. This is made possible because Gemini Robotics builds on top of the Gemini Robotics-ER model, the second model we introduce in this work. Gemini Robotics-ER (Embodied Reasoning) extends Gemini's multimodal reasoning capabilities into the physical world, with enhanced spatial and temporal understanding. This enables capabilities relevant to robotics including object detection, pointing, trajectory and grasp prediction, as well as multi-view correspondence and 3D bounding box predictions. We show how this novel combination can support a variety of robotics applications. We also discuss and address important safety considerations related to this new class of robotics foundation models. The Gemini Robotics family marks a substantial step towards developing general-purpose robots that realizes AI's potential in the physical world.

Summary

AI-Generated Summary

PDF212March 27, 2025