悦数图数据库
悦数图数据库
在 AIGC 的狂飙突进的当下,当“人人都能做 AI”的时代来临,作为 AI 实践者、工程师和决策者,你是否仍在为以下问题感到困惑?
面对日新月异的硬件和不断涌现的开源生态(比如 AMD ROCm),如何做出最明智的选择,为你的 AI 训练与推理构建稳定且高效的算力资源底座?你的硬件能力是否被软件生态充分释放?
数 TB 乃至 PB 级别的模型和数据集,已经成为常态。你的存储系统是否能跟上 GPU 的速度?如何才能在高吞吐、高并发的 AIGC 场景中,实现可靠、灵活、低成本的数据管理?
LLM 拥有强大的语言能力,但如何将它们从“语言复读机”升级为“世界理解者”?
如何将你企业独有的、散落在各处的“知识”系统化、结构化,让 AI 真正“理解”并进行高阶推理?
当我们走向 MoE 等更大、更复杂的模型架构时,部署和推理的成本与延迟成为了新的“拦路虎”。如何通过创新的算法和工程优化,将大规模模型的推理性能提升至极致,实现真正意义上的“破局”?
如果上任何一个问题是你的痛点,或你对这些问题答案感到好奇,那么恭喜你——你正处于 AIGC 实践的最前沿。本次的 AI 沙龙将带给你答案。
这一次,我们不再停留在理论,我们将聚焦在 AIGC 落地中最核心、最“硬核”的议题。
📅日期:2025年11月15日
⏰时间:13:30 - 17:00
📍地点:上海徐汇去航汇大厦3楼2号会议室
13:30-14:00活动签到
14:00-14:40《AMD ROCm 开源软件及生态,赋能AI开发者》王宏强 | AMD 人工智能事业部总监
14:40-15:20《JuiceFS:AIGC 背后的存储挑战与落地方案》蔡敏 | Juicedata 解决方案架构师
15:20-16:00《如何构建AI训练与推理的算力资源(拟)》丁可 | DigitalOcean Cloud Solutions Expert 卓普云科技解决方案架构师
16:00-16:40《图即基座:NebulaGraph 在 LLM 时代的角色》尚卓燃 | NebulaGraph GenAI 团队成员
16:40-17:20《破局大规模LLM服务:MoE推理的性能优化之道》金明熠 | PPIO AI推理加速高级算法工程师
声明:本页面所有信息均由商家提供,大数跨境仅提供技术支持