> 数据图表

咨询下各位VLA Foundry 统一 LLM-VLM-VLA 训练流程

2026-4-0
咨询下各位VLA Foundry 统一 LLM-VLM-VLA 训练流程
实验结果显示,在论文使用的 nominal 评估设置中,从零训练的完全开源模型与团队此前闭源工作表现相当使用 Qwen3-VL 骨干的 Foundry-Qwen3VLA-2.1B-MT 在多任务桌面操作策略上相较基线有明显提升,论文报告其在闭源 LBM 多任务评估中以超过 20 个百分点的幅度优于此前多任务策略。对于开源仿真环境,论文也比较了单任务、多任务和微调阶段在已见任务与未见任务上的表现,并指出不同模型系列在微调收益上存在差异。 VLA Foundry 的产业研究价值主要在工具链层面。它并非只发布一个机器人策略模型,而是把从语言模型到具身动作模型的训练过程封装为可替换、可复现实验平台。随着机器人数据与非机器人多模态数据的组合日益重要,此类基础设施有助于研究者更系统地评估数据配方、骨干模型和动作头结构对策略性能的贡献。论文中模型和代码均以开源形式提供,也为后续 VLA 训练框架比较提供了可核验基准。