大数跨境
第二届大模型性能优化高级研修班
第二届大模型性能优化高级研修班
不支持退款
该活动不支持退款
时间: 2025-08-16 09:00 ~ 2025-08-20 18:00
地点:
北京市 导航
主办:

中科图云

票种:
数量:

分享:
活动介绍

01

活动介绍

为促进大模型性能优化方向的产学研交流合作和人才培养,学习研讨前沿技术研究进展,推进在国产算力和软件生态上做好性能优化,特举办大模型性能优化高级研修班,本次研修班由中国科学院人事局资助,中国科学院计算技术研究所承办,并行科技,中科图云,中科云畅协办。前2日实训营由北京智源人工智能研究院支持。

02

时间地点

培训时间:2025年8月16日至8月20日

培训地点:北京市海淀区,报名后可查看

面向人群:从事人工智能或高性能计算等相关领域,具有中高级职称(职业资格)的专业技术人员或在企事业单位有关管理岗位工作的人员。基层一线专业技术人员可适当放宽标准。培训对象需具备人工智能的基础知识和编程技能,关注大模型性能优化,有相关研究经历或工作经历。请注意,本次线下培训不招收在校学生。

03

嘉宾和日程安排

目前部分日程如下:

多芯片时代的大模型迁移与FlagRelease实践
跨芯片训练与推理自适应优化技术
FlagScale多后端管理与多硬件适配机制
案例讲解:基于 FlagRelease 实现模型到不同芯片上的推理部署
编译FlagTree
Triton编译优化与FLagTree设计
Triton 语言 & Triton 编译器
案例讲解:在 FlagTree 上如何接入一种 AI 芯片架构
智源研究院拥抱开源开放:人人可创新,人人可受益
大模型高效推理部署优化技术
FlagCX拓扑感知通信优化
大规模分布式训练优化技术
集合通信库设计与实现
跨芯片高效通信算法
案例讲解:基于FlagCX+FlagScale,实现不同芯片上的异构混训/异构PD分离
高性能探索:从 Triton 算子到高性能通用算子 FlagGems

大模型推理及训练、微调技术分享

芯片设计领域HPC调度问题和关于LLM的一点思考

HG生态工具链和AI4Science前沿应用

大模型本地化部署新路径——异构推理10倍降低大模型部署门槛

llm-d:Kubernetes原生的的分布式LLM推理框架

百度一见视觉大模型创新应用及实践

GRPO强化学习

部分报告嘉宾:

陶鼎文,中国科学院计算技术研究所,研究员

吴老师,北京智源人工智能研究院,研究员
曹老师,北京智源人工智能研究院,研究员
刘老师,北京智源人工智能研究院,研究员
刘老师,北京智源人工智能研究院,研究员
杨老师,北京智源人工智能研究院,研究员
郑老师,北京智源人工智能研究院,研究员
刘老师,北京智源人工智能研究院,开源运营专家
吕老师,北京智源人工智能研究院,研究员
顾老师,北京智源人工智能研究院,研究员
李老师,北京智源人工智能研究院,研究员
常老师,北京智源人工智能研究院,研究员
王老师,北京智源人工智能研究院,研究员

嘉宾待定,HG,技术专家,闭门会议

嘉宾待定,HG,技术专家,闭门会议

嘉宾待定,HG,技术专家,闭门会议

嘉宾待定,HG,技术专家,闭门会议

张家驹,Fedora社区,开源老兵

黄迎春,北京常算科技有限公司,总经理

郑耀威,LLaMA Factory,核心开发

王浩,百度一见视觉大模型,产品资深架构师

唐老师,北京清程极智科技有限公司,技术经理

张老师,建信金融科技有限责任公司,技术专家

王老师,北京趋境科技有限责任公司,技术专家

采取主题报告、专题研讨、学术交流、现场教学等方式进行培训。

04

往期精彩活动

微信图片_20240920103249.jpg

微信图片_20240920103257.jpg

“高性能稀疏矩阵算法调优及应用”论坛

18996.jpg

31794.jpg

第一届大模型性能优化研修班

第一届回顾:

2024年10月08日至13日,由中国科学院人事局资助、中国科学院计算技术研究所专业技术人员继续教育基地承办的“大模型性能优化”高级研修班在北京顺利举办,来自全国的90余名从事人工智能和高性能计算领域工作的专业技术人员和管理人员参加。

本期高研班聚焦学员需求,围绕服务国家重大战略、重点领域、重点工作等设计培训课程,邀请了中国计算机学会高性能计算专业委员会副主任张云泉研究员作开班致辞,邀请了陶鼎文研究员,肖俊敏副研究员,大模型微调框架LLaMA Factory作者郑耀威博士,以及北京智源、中科加禾、澎峰科技、并行科技、清程极智等公司的长期从事一线工作的19名专家学者,以多种形式,开展了大模型训练,微调,推理,应用等6个方向专题研修总计19个报告,大模型训练专题的《八卦炉:在3700万以上核心训练脑规模预训练模型》、《FlagScale大模型自适应并行训练技术创新与实践》、《多模态模型在昇腾芯片上的3D并行训练实践》等报告聚焦在多种国产AI算力上的大模型训练优化实践,大模型微调专题的《LLaMA Factory在低资源大模型微调加速上的实践》报告,系统介绍了微调方法的分类、设计思路和应用,大模型推理专题的《大模型推理优化技术》报告,介绍了在国产算力上的推理优化方案,算力生态专题的《大模型时代的智能超算:以数据为中心的挑战及应对》、《Triton编程与优化》、《国产算力在大模型时代的下应用生态建设》等报告从多个维度分析了国产算力在大模型时代的应对与挑战,大模型应用专题的《产品驱动的领域模型训练》等报告从多个行业视角分析大模型的落地应用,在企业现场教学环节,刘帅和刘洪宇老师辅导学员上机实训,包含《典型大模型GLM、LLaMa训练部署实训》、《基于云平台进行大模型开发与服务部署》。

05

温馨提示

​1、所有参训学员须遵守中央八项规定精神及其实施细则,培训期间严禁饮酒,严禁各类名义的聚餐或娱乐活动等。

2、结业考核分为上机实训和结业总结论文两部分。参训学员须认真完成上机实训题目,并结合培训内容和工作实际,撰写1篇与培训内容相关的总结论文或交流材料(不少于1000字),于培训结束前将电子版提交至工作邮箱,邮件主题为:“大模型性能优化培训论文总结-姓名-单位”。未完成上机实训题目或未提交总结论文、总结论文不合格的学员,不能获得结业证书。

3、参训学员修完规定课程,经考核合格后,获得专业技术人才知识更新工程高级研修项目结业证书。学员可凭姓名和身份证号在国家专业技术人才知识更新工程公共服务平台查询和打印本人证书。

4、为保证培训效果,参训学员应严格遵守各项培训纪律。学员在培训期间,不再承担所在单位的工作、会议、调研等任务,如有特殊情况确需请假的,必须严格履行请假手续,请假和缺勤时间累计超过总学时1/7的按退学处理。如报名成功后,因特殊原因不能如期参加培训,须尽早向承办单位联系人申请退出报名或沟通异地线上参加。

4、本次培训不收取培训费,学员往返交通费自理。食宿由主办方统一安排,京外学员安排两人一间标准间,如申请单间住宿,超标费用由学员自付,京内学员不安排住宿。

6、本次培训含上机实训环节,请参训学员自行携带可联网笔记本电脑。

7、如对报名有问题可咨询工作人员

声明:本页面所有信息均由商家提供,大数跨境仅提供技术支持

分享:
收藏
举报
活动报名
    暂无内容
    暂无数据