超越视觉:通过语言基础对异构传感器进行微调通用机器人策略
Beyond Sight: Finetuning Generalist Robot Policies with Heterogeneous Sensors via Language Grounding
January 8, 2025
作者: Joshua Jones, Oier Mees, Carmelo Sferrazza, Kyle Stachowicz, Pieter Abbeel, Sergey Levine
cs.AI
摘要
与世界互动是一个多感官体验:实现有效的通用交互需要利用所有可用的模态,包括视觉、触觉和音频,以填补部分观察的空白。例如,当视觉被遮挡时伸手进袋子,机器人应依赖触觉和声音感知。然而,目前最先进的通用机器人策略通常是在大型数据集上训练,仅从视觉和本体感知观察中预测机器人动作。在这项工作中,我们提出了FuSe,一种新方法,通过利用自然语言作为通用跨模态基础,使视觉运动通用策略在大型数据集不易获得的异质传感器模态上进行微调。我们将多模态对比损失与感知基础语言生成损失相结合,以编码高级语义。在机器人操作的背景下,我们展示了FuSe能够执行需要联合推理视觉、触觉和声音等模态的具有挑战性任务,例如多模态提示、组合跨模态提示和与之交互的对象描述等。我们展示了相同的方法适用于广泛不同的通用策略,包括基于扩散的通用策略和大型视觉-语言-动作(VLA)模型。在现实世界中进行的大量实验表明,与所有考虑的基线相比,FuSe能够将成功率提高超过20%。
English
Interacting with the world is a multi-sensory experience: achieving effective
general-purpose interaction requires making use of all available modalities --
including vision, touch, and audio -- to fill in gaps from partial observation.
For example, when vision is occluded reaching into a bag, a robot should rely
on its senses of touch and sound. However, state-of-the-art generalist robot
policies are typically trained on large datasets to predict robot actions
solely from visual and proprioceptive observations. In this work, we propose
FuSe, a novel approach that enables finetuning visuomotor generalist policies
on heterogeneous sensor modalities for which large datasets are not readily
available by leveraging natural language as a common cross-modal grounding. We
combine a multimodal contrastive loss with a sensory-grounded language
generation loss to encode high-level semantics. In the context of robot
manipulation, we show that FuSe enables performing challenging tasks that
require reasoning jointly over modalities such as vision, touch, and sound in a
zero-shot setting, such as multimodal prompting, compositional cross-modal
prompting, and descriptions of objects it interacts with. We show that the same
recipe is applicable to widely different generalist policies, including both
diffusion-based generalist policies and large vision-language-action (VLA)
models. Extensive experiments in the real world show that FuSeis able to
increase success rates by over 20% compared to all considered baselines.Summary
AI-Generated Summary
论文概述
本文提出了一种名为FuSe的方法,利用自然语言作为跨模态基础,对大型基于图像的预训练通用策略进行微调,以在异构机器人传感器模态上进行联合推理。FuSe结合了多模态对比损失和感官驱动的语言生成损失,成功提高了机器人在视觉、触觉和声音等模态之间的联合推理能力,实验结果显示成功率提高超过20%。
核心贡献
- FuSe方法结合多模态对比损失和感官驱动的语言生成损失,编码高级语义,实现机器人在异构传感器模态上的联合推理。
- 通过引入辅助损失,将异构观察与自然语言进行对比,成功连接预训练通用机器人策略的语义知识与新的传感器模态。
- FuSe在实践中能够成功完成挑战性任务指令,展示了在真实世界中的有效性,提高成功率超过20%。
研究背景
本研究旨在探究跨模态提示功能,通过模板语言注释机器人轨迹,增强多传感器输入的增强。实验结果表明FuSe在零-shot方式执行多模态提示任务、区分模糊对象、应用于组合推理任务等方面具有显著优势。
研究缺口
- 现有研究缺乏对异构传感器模态上的联合推理的有效方法。
- 传统方法无法有效处理多模态提示任务中的语义知识连接问题。
技术挑战
- 需要解决多模态对比损失和感官驱动的语言生成损失的有效结合。
- 如何在不同任务中实现高性能的多模态提示功能。
先前方法
- 以往研究主要集中在单一模态或简单多模态任务上,缺乏对复杂多模态任务的研究。
- 传统方法未能有效整合自然语言和多模态信息进行联合推理。
方法论
本研究在v5e-128 TPU pod上进行50,000步训练,使用余弦学习率调度器和特定参数设置。通过引入多任务数据集和辅助损失,成功实现了FuSe方法的微调和有效性验证。
理论基础
- FuSe方法基于多模态对比损失和感官驱动的语言生成损失,实现了跨模态联合推理。
- 辅助跨模态语言基础损失在Finetuning FuSe时起到关键作用。
技术架构
- 模型设计包括多模态对比损失和感官驱动的语言生成损失,以及辅助损失的引入。
- 实验设置涵盖了多种传感器,如RGB相机、触觉传感器和麦克风,用于不同任务的验证。
实施细节
- 训练过程中使用特定的批量大小、学习率调度器和缓冲区设置。
- 通过实验验证FuSe方法在不同任务中的有效性和性能提升。
创新点
- FuSe方法成功整合了自然语言和多模态信息,实现了在异构传感器模态上的联合推理。
- 辅助损失的引入有效连接了预训练通用机器人策略的语义知识与新的传感器模态。
实验验证
通过对27K个机器人轨迹数据集的实验,展示了FuSe方法在真实世界中的有效性和性能提升。
实验设置
- 使用具有多种传感器的机器人臂进行不同任务的实验验证。
- 实验配置包括特定的训练步数、批量大小和参数设置。
评估指标
- 通过成功率等指标评估FuSe方法在多模态提示任务中的表现。
- 比较不同方法在挑战性任务指令完成率上的差异。
实验结果
- FuSe方法相较于基线方法提高了超过20%的成功率。
- 在多任务数据集上,FuSe展现了出色的多模态推理能力。
对比分析
- FuSe方法在不同任务中的表现优于传统方法,特别是在复杂多模态任务中的应用。
影响与启示
本研究的关键发现包括FuSe方法在多模态提示任务中的优越性、适用于不同通用机器人策略架构等。然而,仍存在一些限制,未来研究可探索更多实际应用和技术改进。
主要发现
- FuSe方法成功应用于零-shot方式执行多模态提示任务。
- 辅助跨模态语言基础损失对于实现高性能至关重要。
- FuSe方法适用于不同通用机器人策略架构。
限制
- 训练资源限制了观察历史长度,需要提高训练效率以应对更复杂的任务。
- 对稀疏信号的推理仍有待改进。
未来方向
- 探索更多实际应用场景,如自主导航、物品识别等。
- 提高训练效率,以实现更长的上下文长度和更好的稀疏信号推理。
实际意义
-
FuSe方法在机器人领域具有重要的实际应用意义,可应用于挑战性任务指令的执行等。
-
通过多模态提示功能,FuSe方法为机器人在复杂环境中的智能决策提供了新的思路。
-
关键词:FuSe方法、多模态提示、跨模态语言接地、机器人传感器模态、联合推理。
1比特LLM时代:所有大型语言模型均为1.58比特。The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits
1比特LLM时代:所有大型语言模型均为1.58比特。
The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits
Shuming Ma, Hongyu Wang, Lingxiao Ma, Lei Wang, Wenhui Wang, Shaohan Huang, Li Dong, Ruiping Wang, Jilong Xue, Furu Wei•Feb 27, 2024•612142
DeepSeek-R1:通过强化学习激励LLMs中的推理能力DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via
Reinforcement Learning
DeepSeek-R1:通过强化学习激励LLMs中的推理能力
DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via
Reinforcement Learning
DeepSeek-AI, Daya Guo, Dejian Yang, Haowei Zhang, Junxiao Song, Ruoyu Zhang, Runxin Xu, Qihao Zhu, Shirong Ma, Peiyi Wang, Xiao Bi, Xiaokang Zhang, Xingkai Yu, Yu Wu, Z. F. Wu, Zhibin Gou, Zhihong Shao, Zhuoshu Li, Ziyi Gao, Aixin Liu, Bing Xue, Bingxuan Wang, Bochao Wu, Bei Feng, Chengda Lu, Chenggang Zhao, Chengqi Deng, Chenyu Zhang, Chong Ruan, Damai Dai, Deli Chen, Dongjie Ji, Erhang Li, Fangyun Lin, Fucong Dai, Fuli Luo, Guangbo Hao, Guanting Chen, Guowei Li, H. Zhang, Han Bao, Hanwei Xu, Haocheng Wang, Honghui Ding, Huajian Xin, Huazuo Gao, Hui Qu, Hui Li, Jianzhong Guo, Jiashi Li, Jiawei Wang, Jingchang Chen, Jingyang Yuan, Junjie Qiu, Junlong Li, J. L. Cai, Jiaqi Ni, Jian Liang, Jin Chen, Kai Dong, Kai Hu, Kaige Gao, Kang Guan, Kexin Huang, Kuai Yu, Lean Wang, Lecong Zhang, Liang Zhao, Litong Wang, Liyue Zhang, Lei Xu, Leyi Xia, Mingchuan Zhang, Minghua Zhang, Minghui Tang, Meng Li, Miaojun Wang, Mingming Li, Ning Tian, Panpan Huang, Peng Zhang, Qiancheng Wang, Qinyu Chen, Qiushi Du, Ruiqi Ge, Ruisong Zhang, Ruizhe Pan, Runji Wang, R. J. Chen, R. L. Jin, Ruyi Chen, Shanghao Lu, Shangyan Zhou, Shanhuang Chen, Shengfeng Ye, Shiyu Wang, Shuiping Yu, Shunfeng Zhou, Shuting Pan, S. S. Li, Shuang Zhou, Shaoqing Wu, Shengfeng Ye, Tao Yun, Tian Pei, Tianyu Sun, T. Wang, Wangding Zeng, Wanjia Zhao, Wen Liu, Wenfeng Liang, Wenjun Gao, Wenqin Yu, Wentao Zhang, W. L. Xiao, Wei An, Xiaodong Liu, Xiaohan Wang, Xiaokang Chen, Xiaotao Nie, Xin Cheng, Xin Liu, Xin Xie, Xingchao Liu, Xinyu Yang, Xinyuan Li, Xuecheng Su, Xuheng Lin, X. Q. Li, Xiangyue Jin, Xiaojin Shen, Xiaosha Chen, Xiaowen Sun, Xiaoxiang Wang, Xinnan Song, Xinyi Zhou, Xianzu Wang, Xinxia Shan, Y. K. Li, Y. Q. Wang, Y. X. Wei, Yang Zhang, Yanhong Xu, Yao Li, Yao Zhao, Yaofeng Sun, Yaohui Wang, Yi Yu, Yichao Zhang, Yifan Shi, Yiliang Xiong, Ying He, Yishi Piao, Yisong Wang, Yixuan Tan, Yiyang Ma, Yiyuan Liu, Yongqiang Guo, Yuan Ou, Yuduan Wang, Yue Gong, Yuheng Zou, Yujia He, Yunfan Xiong, Yuxiang Luo, Yuxiang You, Yuxuan Liu, Yuyang Zhou, Y. X. Zhu, Yanhong Xu, Yanping Huang, Yaohui Li, Yi Zheng, Yuchen Zhu, Yunxian Ma, Ying Tang, Yukun Zha, Yuting Yan, Z. Z. Ren, Zehui Ren, Zhangli Sha, Zhe Fu, Zhean Xu, Zhenda Xie, Zhengyan Zhang, Zhewen Hao, Zhicheng Ma, Zhigang Yan, Zhiyu Wu, Zihui Gu, Zijia Zhu, Zijun Liu, Zilin Li, Ziwei Xie, Ziyang Song, Zizheng Pan, Zhen Huang, Zhipeng Xu, Zhongyu Zhang, Zhen Zhang•Jan 22, 2025•3685
Qwen2.5 技术报告Qwen2.5 Technical Report
Qwen2.5 技术报告
Qwen2.5 Technical Report
Qwen, An Yang, Baosong Yang, Beichen Zhang, Binyuan Hui, Bo Zheng, Bowen Yu, Chengyuan Li, Dayiheng Liu, Fei Huang, Haoran Wei, Huan Lin, Jian Yang, Jianhong Tu, Jianwei Zhang, Jianxin Yang, Jiaxi Yang, Jingren Zhou, Junyang Lin, Kai Dang, Keming Lu, Keqin Bao, Kexin Yang, Le Yu, Mei Li, Mingfeng Xue, Pei Zhang, Qin Zhu, Rui Men, Runji Lin, Tianhao Li, Tingyu Xia, Xingzhang Ren, Xuancheng Ren, Yang Fan, Yang Su, Yichang Zhang, Yu Wan, Yuqiong Liu, Zeyu Cui, Zhenru Zhang, Zihan Qiu•Dec 19, 2024•36311