>>直播和内容获取转到→具身智能之心知识星球
点击按钮预约直播
视觉-语言-动作模型在真实世界机器人操作中展现出显著潜力。然而,预训练的VLA策略在下游部署中仍存在明显的性能下降。尽管微调可以缓解这一问题,但其对高昂演示数据收集与密集计算资源的依赖,使其在实际场景中难以应用。
VLA‑Pilot是一种即插即用的推理时策略引导方法,可在无需任何额外微调或数据收集的情况下,实现预训练VLA的零样本部署。该方法在两种不同机器人实体上,覆盖分布内与分布外场景的六项真实世界下游操作任务中进行了评估。实验结果表明,VLA‑Pilot显著提升了现有预训练VLA策略的成功率,实现了对不同任务与机器人实体的鲁棒零样本泛化。
论文标题:Towards Deploying VLA without Fine-Tuning: Plug-and-Play Inference-Time VLA Policy Steering via Embodied Evolutionary Diffusion
论文链接:https://arxiv.org/abs/2511.14178
项目主页:https://rip4kobe.github.io/vla-pilot/
更多精彩回顾
🚀 直播精华看不够?完整版深度内容已独家上线知识星球「具身智能之心」!涵盖所有技术细节、QA及未公开彩蛋。深度解析!
灵巧手的设计与难题!为什么它是打通“手-眼-脑”感知闭环的关键技术?
保持精度,提升速度!Spec-VLA:首个专为VLA推理加速设计的推测解码框架
干货满满,快来加入

