We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode 98. 逐篇解析机器人基座模型和VLA经典论文——“人就是最智能的VLA”

98. 逐篇解析机器人基座模型和VLA经典论文——“人就是最智能的VLA”

2025/4/6
logo of podcast 张小珺Jùn|商业访谈录

张小珺Jùn|商业访谈录

AI Deep Dive Transcript
People
陈建宇
Topics
陈建宇:大语言模型的出现为机器人领域带来了革命性的变化,使得构建通用机器人模型成为可能。过去,机器人技术受限于专用模型,难以规模化发展。而现在,我们可以利用大模型的能力,构建一个能够处理视觉、语言和动作三种模态的端到端模型,即VLA模型。这将使机器人能够胜任各种不同的任务,不再需要为每个任务单独开发模型。 我们对通用机器人的探索经历了两个阶段:第一阶段是将现有的AI模型(如LLM、VLM)应用于机器人的规划、感知和执行环节;第二阶段是预训练专门针对机器人的基础模型。VLA模型正是第二阶段的核心,它是一个端到端的模型,能够同时处理视觉、语言和动作信息,并直接输出相应的动作。 目前,VLA模型领域的研究进展迅速,涌现出许多经典论文,例如Google的RT-1、RT-2,以及其他研究机构的Aloha、Gato、Octo、CrossFormer等。这些模型大多基于Transformer架构,并通过不同的方法来处理视觉、语言和动作信息。一些模型还引入了预测未来状态的能力,以更好地理解当前状态并辅助决策。 构建可扩展的机器人模型架构是目前通用机器人领域最棘手的问题。我们需要找到一种能够处理各种不同类型的机器人和任务的模型架构,并且能够在大量数据上进行训练。此外,数据的多样性比数据量更重要,因为多样性有助于模型的泛化能力。 我们团队也进行了一些探索,例如HiRT模型,它通过增加专门处理动作的模块和分频处理,提高了模型的性能和推理速度。我们还研究了基于扩散模型的VLA模型,以及将预训练好的视频生成模型应用于机器人控制的方法。 未来的研究方向包括构建统一的理解和预测模型,以及利用强化学习来改进VLA模型。我们相信,随着技术的不断发展,机器人将在未来五年内得到更广泛的应用,并为人类社会带来更大的价值。 张小珺:作为访谈主持人,我引导陈建宇教授对机器人领域,特别是VLA模型的发展历程、关键技术和未来方向进行了深入浅出的讲解。我从观众视角出发,提出了一些问题,帮助听众更好地理解VLA模型的原理和应用。

Deep Dive

Shownotes Transcript

今天的嘉宾是清华大学交叉信息研究院助理教授、星动纪元创始人陈建宇。他的研究和创业方向都是人形机器人。

大语言模型浪潮爆发后,学界和工业界看见了机器人从专用走向通用的可能迹象,机器人革命随之而来。其中,本轮革命最重要的是,对机器人底层架构,也就是机器人“大脑”的探索。

但通用机器人还在科学研究阶段,处于产业发展早期。这集节目,陈老师将带领大家,概览式阅读机器人基座模型和当下最前沿的架构VLA架构(Vision-Language-Action Model,视觉语言动作模型)的经典论文。

希望我们的节目能直观地帮助更多人靠近科学前线,感受技术之美,并且能直观感知当前技术拐点。

还是那句话:期待2025,我们和AI共同进步! (因为因为,陈老师真的分享了很多很多的动图和视频,本集结合视频服用效果更佳噢!可以前往:含投屏的视频版本)。嘿嘿!预祝你学得开心!学得顺利啦!)我们的播客节目在腾讯新闻首发),大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:) 02:30 陈建宇的研究和创业方向

04:11 讲解开始前,先提问几个小问题

17:36 当下最大变量:从专用模型到通用模型(robot foundation model)的可能性

21:12 大模型浪潮爆发后,机器人领域经历了两个阶段:从利用基础模型进行机器人研究(leveraging foundation models in robotics)到为机器人预训练基础模型(pretraining foundation models for robotics) 第一阶段:利用基础模型进行机器人研究(leveraging foundation models in robotics) 21:59 机器人传统三板块:Planning+Perception+Actuation(规划+感知+执行)——第一步,用LLM(Large Language Model,大语言模型)替代Planning

23:54 由Google Robotics团队提出的具身智能开创性论文Say Can《Do As I Can, Not As I Say: Grounding Language in Robotic Affordances》

(中文名:我能做到,而不是我说到:将语言与机器人的可供性相结合)

27:03 第二步,用VLM(Vision-Language Models,视觉语言模型)替代Perception

27:52 来自Google的论文《Inner Monologue: Embodied Reasoning through Planning with Language Models》

(中文名:内心独白:通过语言模型规划进行具身推理)

29:51 由清华和上海姚期智研究院提出的《DoReMi: Grounding Language Model by Detecting and Recovering from Plan-Execution Misalignment》

(中文名:DoReMi:通过检测和恢复规划-执行不一致来落地语言模型)

32:47 第三步,想把Actuation进一步自动化,用Code LM(专门用于代码相关任务的大型语言模型)来替代Actuation

32:24 由李飞飞团队提出的《VoxPoser: Composable 3D Value Maps for Robotic Manipulation with Language Models》

(中文名:VoxPoser:使用语言模型进行机器人操作的可组合3D价值地图) 第二阶段:为机器人预训练基础模型(pretraining foundation models for robotics) 38:36 VLA端到端模型(Vision-Language-Action Model,视觉语言动作模型)——“人是很智能的VLA Agent”

39:53 关于VLA的经典论文及分类: 40:17** **Aloha论文《Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware》

(中文名:学习用低成本硬件进行精细双手操作)

47:36 Mobile Aloha论文《Mobile ALOHA: Learning Bimanual Mobile Manipulation with Low-Cost Whole-Body Teleoperation》

(中文名:移动ALOHA:使用低成本全身远程操作学习双手移动操作)

50:15 论文《A Generalist Agent》介绍了一个名为Gato的通用型人工智能代理

(中文名:通用型代理)

52:45 RT-1论文《RT-1: Robotics Transformer for Real-World Control at Scale》

(中文名:RT-1:机器人Transformer用于大规模现实世界控制)

59:02 Octo论文《Octo: An Open-Source Generalist Robot Policy》

(中文名:Octo:一个开源的通用机器人策略)

01:02:20 CrossFormer论文《Scaling Cross-Embodied Learning: One Policy for Manipulation, Navigation, Locomotion and Aviation》

(中文名:扩展跨具身学习:操控、导航、运动和飞行的统一策略)

01:06:58 字节跳动AI Lab的两个工作GR-1和GR-2:

《Unleashing Large-Scale Video Generative Pre-Training For Visual Robot Manipulation》(为视觉机器人操控释放大规模视频生成预训练模型)

《A Generative Video-Language-Action Model with Web-Scale Knowledge for Robot Manipulation》(用于机器人操作的网络规模知识生成视频-语言-动作模型》)

01:15:02 Palm-E论文《PaLM-E: An Embodied Multimodal Language Model》

(中文名:PaLM-E:具身多模态语言模型)

**01:20:02 **当前VLA最有名的开山工作:Google推出的RT-2论文《RT-2:Vision-Language-Action Models Transfer Web Knowledge to Robotic Control》

(中文名:RT-2:视觉-语言-动作模型将网络知识迁移到机器人控制中)

01:26:05 RT-X论文《Open X-Embodiment: Robotic Learning Datasets and RT-X Models》

(中文名:开放X具身:机器人学习数据集与RT-X模型)

01:31:16 《OpenVLA: An Open-Source Vision-Language-Action Model》(约等于开源版RT-2)

(中文名:OpenVLA:一个开源的视觉-语言-动作模型)

01:32:56 陈建宇课题组《HiRT: Enhancing Robotic Control with Hierarchical Robot Transformers》

(中文名:HiRT:利用分层机器人Transformer增强机器人控制)

01:38:40 Figure AI Helix,没发论文,但是今年Figure最新架构

01:39:28 Pi0论文《π₀: A Vision-Language-Action Flow Model for General Robot Control》

(中文名:π₀:一个视觉-语言-动作的流模型用于通用机器人控制)

01:41:36 英伟达最近发布的GROOT N1模型《GR00T N1: An Open Foundation Model for Generalist Humanoid Robots》

(中文名:GR00T N1:通用人形机器人的开放基础模型)

01:42:32 《Diffusion Policy: Visuomotor Policy Learning via Action Diffusion》

(中文名:扩散策略:通过动作扩散进行视觉运动策略学习)

01:47:39 清华发布的《RDT-1B: A Diffusion Foundation Model for Bimanual Manipulation》

(中文名:RDT-1B:双手操作机器人的扩散基础模型)

01:51:04 《Prediction with Action: Visual Policy Learning via Joint Denoising Process》(动作预测:通过联合去噪过程进行视觉策略学习)

和续作《Video Prediction Policy: A Generalist Robot Policy with Predictive Visual Representations》(视频预测策略:一个预测视觉表征的通才机器人策略)

02:03:06 两个未来方向:《UP-VLA: A Unified Understanding and Prediction Model for Embodied Agent》(UP-VLA:具身智能体的统一理解与预测模型)

《Improving Vision-Language-Action Model with Online Reinforcement Learning》(通过在线强化学习改进视觉-语言-动作模型)

02:09:22 最后的提问 【技术之美】系列:

逐句讲解DeepSeek-R1、Kimi K1.5、OpenAI o1技术报告——“最优美的算法最干净”)

逐篇讲解DeepSeek关键9篇论文及创新点——“勇敢者的游戏”)

逐篇讲解DeepSeek、Kimi、MiniMax注意力机制新论文——“硬件上的暴力美学”)

【更多信息】

联络我们:微博@张小珺-Benita),小红书@张小珺)

更多信息欢迎关注公众号:张小珺