大数跨境
0
0

模速社群日|不卷算力卷效率!HAMi Meetup 上海站活动报名通道开启→

模速社群日|不卷算力卷效率!HAMi Meetup 上海站活动报名通道开启→ 上海模速空间大模型创新生态社区
2025-11-25
1
导读:11 月 30 日 13:30-18:00,首场 HAMi Meetup 将在上海举行,欢迎报名。
当黄浦江畔的科创浪潮与云原生技术革新交汇,当算力竞赛告别 "硬件堆砌" 的粗放时代,转而深耕效率提升的精细化道路 —— 上海,这座锚定中国数字经济未来的先锋城市,正迎来一场由开源力量驱动的算力效率协同升级。
而这,仅仅是一个开始。

不卷算力卷效率|HAMi Meetup 将以上海为系列活动开源协作始发站,响应行业对高效算力调度解决方案的需求,搭建技术实践与经验共享的交流平台。本次活动将在模速空间举办,由 HAMi 社区密瓜智能主办,CNCF(云原生计算基金会)特别支持。


活动现场,CNCF、密瓜智能、沐曦股份、蔚来、DaoCloud 道客、星环科技将齐聚现场进行主题分享,共同探索异构算力调度的高效解法,在思维碰撞中破解算力资源浪费难题,实现不卷算力卷效率!

欢迎 AI 技术开发者、运维工程师、企业 IT 架构师、云厂商、硬件厂商技术负责人及产品专家、金融、智驾、物流、生物科技等行业数字化转型负责人、开源技术爱好者及相关领域研究者等报名参与!


活动信息

活动时间2025 年 11 月 30 日 13:30-18:00

活动地点:上海・徐汇区龙台路 180 号 F2 栋 2 层 模速空间科创金融综合服务平台

活动报名:扫描下方图片二维码即可免费报名参与,席位有限,先到先得


立即扫码报名


HAMi 简介

HAMi 社区由来自 15+ 国家、350+ 贡献者共同维护,已被 200+ 企业与机构在实际生产环境中采纳,具备良好的可扩展性与支持保障。
HAMi 作为目前行业内唯一专注于异构 GPU 资源共享的开源项目,通过灵活、可靠、按需、弹性的 GPU 虚拟化来提升资源利用率,可以插拔式、轻量化、无侵入地部署在任意公有云、私有云、混合云环境中,可支持 NVIDIA、昇腾、沐曦股份、寒武纪、海光、摩尔线程,天数智芯、AWS neuron、燧原、昆仑芯 等异构芯片。并与 vLLM、Volcano、Kueue、Xinference 协同,数十家云厂商无缝集成。场景覆盖金融、物流、智驾、机器人、生物科技等行业,实现从 0 到 1 的落地。

活动亮点速览

精准破局核心痛点:聚焦异构算力调度提效,直击 GPU 利用率低、成本高的行业难题,提供可直接复用的实战方案。超强阵容齐聚交流:CNCF、密瓜智能、沐曦股份、蔚来、DaoCloud、星环科技共话算力提效全链路内容。干货议题覆盖全面:5 大核心议题涵盖版本升级解读、开源调度赋能、国产算力适配等方向,同时涵盖技术拆解和实战经验。实战导向干货拉满:内容贯穿调度优化、硬件适配、GPU 共享调度等实操要点,助力攻克算力浪费问题,实现 “不卷算力卷效率”!

现场惊喜满满:面对面探讨异构算力调度最优解,解锁不卷算力卷效率的核心密码!现场还设置抽奖环节,欢迎参与互动赢取惊喜周边


嘉宾阵容,实战干货抢先看

重磅开场嘉宾

Keith Chan:Vice President, The Linux Foundation APAC China Director, CNCF


核心议题分享

《HAMi 2.7.0 版本解读与 2.8.0 版本 Roadmap:异构芯片全适配与调度能力跨越式升级》

密瓜智能  李孟轩 

密瓜智能联合创始人 & HAMi maintainer。清华大学计算机系硕士,专注于云原生以及异构算力领域,擅长云原生架构,GPU 虚拟化和异构算力管理,发表过 4 篇与云原生算力相关的专利,与信通院合作撰写《云原生 AI 技术架构白皮书》。

这次将为我们讲解 HAMi 聚焦异构算力管理痛点,介绍 HAMi 2.7.0版本关键升级,涵盖多厂商芯片全流程支持、调度器优化及 WebUI 可视化实践;以及 2.8.0 版本roadmap 披露,展现 HAMi 版本对资源利用率与调度效率的提升价值。


《MetaX sGPU on HAMi》

沐曦股份 郭磊

MetaX sGPU 核心贡献者。专注于面向 AI 场景的 Kubernetes 调度器研发工作,在 scheduling framework、Volcano、HAMi 等调度框架上有丰富的实践经验。

随着AI算力需求激增,GPU 资源利用率不足和碎片化成为关键挑战。本次分享将介绍 MetaX sGPU 如何借助 HAMi 异构调度框架实现 GPU 共享调度,并详细解析sGPU 的核心架构与强大的功能特性,包括细粒度共享、Qos 策略、在离线混部,以及整卡场景的拓扑感知调度。


基于 vGPU 的 mlperf

蔚来 李鹏

李鹏,蔚来云端工程部训练加速负责人,深耕异构算力集群管理与 AI 训练性能优化,拥有大规模 GPU 集群落地经验。主导蔚来云端 vGPU 方案设计落地,聚焦 AI 训练效率与成本优化,在 GPU 虚拟化、性能诊断等领域成果丰硕,方案已应用于自动驾驶核心业务,解决资源利用率低、性能瓶颈难定位问题。

本次分享聚焦 “基于 vGPU 的 AI 训练性能优化框架”,结合 HAMi 技术底座,拆解蔚来大规模 AI 训练场景的性能诊断与效率提升实践。框架依托 HAMi vGPU 的无侵入特性,拦截 GPU 全链路行为调用生成函数日志,无需修改代码即可实时分析 AI 任务。技术上,基于日志构建多维度分析体系,量化算力与显存效率、还原执行时间线、挖掘调度瓶颈,还能捕获异常 API 调用;产品层面实现 “底层瓶颈定位 + 上层代码溯源” 闭环诊断。目前已适配蔚来自动驾驶训练,针对多模态模型等场景提供优化建议,助力提升任务效率、降低集群资源浪费,适配工业级 AI 训练需求。


《HAMi:让开源 GPU调度赋能 d.run 的 AI 开发者》

DaoCloud 道客 卢传佳

「DaoCloud 」道客产品负责人,资深的云原生及 AI 平台产品架构师与布道师,拥有 10+ 年云计算与 AI 实战经验。

这次将为我们深入介绍 HAMi——一款开源的异构设备虚拟化调度中间件——如何成为 d.run 平台背后的关键能力支撑。HAMi 通过标准化 GPU 资源的虚拟化、配额管理与调度接口,使得异构资源(GPU、NPU 等)能在 Kubernetes 环境中以更高的粒度灵活编排。


《星环 x 国产算力生态:适配实践》

星环科技 侯雨希

星环科技人工智能产品部 AI - 工具平台研发,负责为星环 LLMOps 平台提供底层 GPU 算力管理、服务调度、配额管理等能力。

本分享将介绍星环 LLMOps 在国产算力生态中的适配实践,包括扩展 HAMi 调度器以支持寒武纪多型号混合部署,深度修复开源海光 dcu-vgpu-device-plugin 与 Exporter。同时简要解析国产算力场景下 DRA 的资源抽象与调度挑战,展示星环构建统一异构算力调度体系的技术路径。


Meetup议程全公开



【声明】内容源于网络
0
0
上海模速空间大模型创新生态社区
“模速空间”是全国首个大模型专业孵化和加速载体,立足徐汇滨江,基于“十百千万”目标,打造数据、算力、评测、金融、综合等功能平台,赋能各通用大模型、垂类大模型、大模型应用创新初创企业汇聚上海、引领全国、扬帆世界。
内容 597
粉丝 0
上海模速空间大模型创新生态社区 “模速空间”是全国首个大模型专业孵化和加速载体,立足徐汇滨江,基于“十百千万”目标,打造数据、算力、评测、金融、综合等功能平台,赋能各通用大模型、垂类大模型、大模型应用创新初创企业汇聚上海、引领全国、扬帆世界。
总阅读110
粉丝0
内容597