本次活动特邀业内大模型训练、推理、强化学习等方向的开源框架核心维护者及资深技术专家,就系统优化的多个关键议题进行探讨,
包括:
现场可与一线专家和业界同行进行面对面深入交流,共同探讨LLM强化学习的前沿实践与落地经验。
同时,现场也设有互动环节,供参会者拓展行业人脉、交流项目心得,共同探索大模型强化学习的未来发展路径。
13:30-14:05 巫锡斌《verl 0.7 release and roadmap》 Bytedance Seed infra 团队工程师,verl maintainer
14:05-14:40 柏炎 《Megatron&FP8 rollout》NVIDIA Devtech工程师,负责Megatron-Core与强化学习性能优化
14:40-15:15 游凯超《RL support in vLLM》
15:15-15:50 侯正罡 《Fully Async》美团 AI Search Infra 团队工程师
14:50-16:00 茶歇
16:00-16:35 陈海泉 《VLA》火山引擎MLP团队工程师,verl 开发者,聚集VLA方向
16:35-17:05 刘启涵 《1T LoRA RL》Mind Lab Researcher
17:05-17:40 朱学凯 《FlowRL》上海交通大学博士生,研究方向为语言模型后训练,专注于推理与合成数据领域