大数跨境
0
0

通过 GPU 尾效应分析,重新思考 DNN 的设计与延迟!让多架构模型延迟降 11%-27%且吞吐量提 1.6×

通过 GPU 尾效应分析,重新思考 DNN 的设计与延迟!让多架构模型延迟降 11%-27%且吞吐量提 1.6× NeuralTalk
2025-11-25
0
导读:本文指出深度神经网络模型剪枝与神经架构搜索虽能减少计算量,却难持续降低 GPU 推理延迟,在于“GPU 尾效应”即最后一个处理波次资源未充分利用。发现模型深度结构与轻量级层工作负载会加剧该效应,导致延

关键词:GPU Tail Effect、Deep Neural Networks (DNNs)、Neural Architecture Search (NAS)、Model Pruning、Latency-Aware Design、GPU Computing

  • Rethinking Latency-Aware DNN Design With GPU Tail Effect Analysis
  • https://ieeexplore.ieee.org/document/10537049/
  • 5300 字,阅读需 21 分钟,播客 15 分钟
相关推荐

本文指出深度神经网络(DNN)模型剪枝与神经架构搜索(NAS)虽能减少计算量,却难持续降低 GPU 推理延迟,根源在于“GPU 尾效应”——GPU 最后一个处理波次资源未充分利用

研究发现,DNN 的深度结构与轻量级层工作负载会加剧该效应,导致延迟呈“阶梯状”变化而非随计算量线性下降

图1. 滤波器剪枝导致 latency 优化无效的示例。具体而言,通过分析 GPU 的执行机制,我们发现软件层面的 DNN 优化算法(如剪枝和 NAS 算法)未能考虑 GPU 固有的运行时特性,因此容易引发 GPU 尾部效应,导致运行时 GPU 利用率不足,使得这些方法效果不佳。为此,我们提出了一种尾部感知的软硬件 DNN 协同优化方法,以实现极致的 DNN 优化效果和效率。(a)DNN 设计优化。(b)存在尾部效应的 GPU 执行。(c)由 latency 阶梯导致的 GPU 效率低下
图1. 滤波器剪枝导致 latency 优化无效的示例。具体而言,通过分析 GPU 的执行机制,我们发现软件层面的 DNN 优化算法(如剪枝和 NAS 算法)未能考虑 GPU 固有的运行时特性,因此容易引发 GPU 尾部效应,导致运行时 GPU 利用率不足,使得这些方法效果不佳。为此,我们提出了一种尾部感知的软硬件 DNN 协同优化方法,以实现极致的 DNN 优化效果和效率。(a)DNN 设计优化。(b)存在尾部效应的 GPU 执行。(c)由 latency 阶梯导致的 GPU 效率低下

基于此,研究提出两种优化方案:

  • 一是增强 NAS 设计空间,融入 GPU 计算粒度感知,离散化层宽度设计空间以降低搜索复杂度,同时避免尾效应;
  • 二是轻量级 DNN 结构微调,通过层剪枝移除尾波剩余工作负载以减延迟、层增长填充尾波空闲资源以保精度。

实验显示,该方法在高端(如 3080Ti)与嵌入式(如 Jetson Nano)GPU 及 VGG、ResNet 等架构上均有效,相比 SOTA 剪枝和 NAS 方法,延迟降低 11%-27%,精度基本保持或略有提升,验证了其有效性与通用性。

unsetunset本文目录unsetunset

  • 本文目录
  • 关键问题
    • 问题 1:ViT 的 MHSA 层适配障碍:计算单元映射差异与复合维度剪枝挑战
    • 问题 2:并发场景下尾效应的不确定性:影响变化与优化方案的适配挑战
  • 一、核心背景与问题提出
    • 1. DNN 部署的核心矛盾
    • 2. 关键现象:GPU 尾效应(GPU Tail Effect)
    • 3. 典型案例:延迟阶梯现象(Latency Staircase)
  • 二、GPU 执行机制与延迟建模
    • 1. GPU 核心执行逻辑
    • 2. 延迟数学建模
  • 三、DNN 优化的核心痛点(现有方法缺陷)
    • 1. 传统优化方法的局限性
    • 2. 尾效应的累积影响
  • 四、核心优化方法:GPU 感知的 DNN 协同优化
    • 1. 方案 1:GPU 感知的 NAS 设计空间增强(GPU-Aware NAS)
    • 2. 方案 2:轻量级 DNN 结构微调(Post-Optimization)
  • 五、实验验证:效果与泛化性
    • 1. 实验设置
    • 2. 关键实验结果
    • 3. 核心结论
  • 六、局限性与未来方向
    • 1. 现有局限性
    • 2. 未来工作
  • 七、总结
  • 参考文献

unsetunset关键问题unsetunset

问题 1:ViT 的 MHSA 层适配障碍:计算单元映射差异与复合维度剪枝挑战

本文指出 GPU 尾效应因 DNN 的深度结构与轻量级层 workload 被放大,且现有优化方案仅适配 CNN(如 VGG、ResNet),但 Vision Transformer(ViT)的 MHSA 层存在多头部并行计算与复合维度剪枝特性,其尾效应的产生机制与 CNN 存在本质差异——现有方案无法直接迁移的核心障碍是 GPU 计算粒度与注意力权重并行逻辑不匹配,还是 MHSA 层的“波次划分单元”(如头数、token 数)与 CNN 的“滤波器-线程块”映射关系完全不同?

现有优化方案无法直接迁移至 ViT 的核心障碍,本质是 MHSA 层的“计算单元-波次划分逻辑”与 CNN 的“滤波器-线程块”映射关系存在根本差异,且 MHSA 层的复合维度剪枝进一步加剧了适配难度,具体可从两方面结合 GPU 底层机制分析:

  1. 计算单元与波次划分单元的不匹配:作者明确指出,当前尾效应优化针对 CNN 设计,其核心逻辑是“滤波器数量 → 线程块数量 → 波次数量”的线性映射(如 CNN 通过调整滤波器数量匹配 GPU 波次容量,消除尾波空闲)。
    而 ViT 的 MHSA 层以“头数、token 数、注意力权重维度”为核心计算单元,波次划分需围绕“每个头的 token 并行计算”展开,与 CNN 的“滤波器对应线程块”映射关系完全不同——例如 MHSA 层的头数删减可能导致单头内 token 计算量不足,却无法通过“层增长”填充 GPU 波次(因 token 数增长会改变注意力语义,而非单纯的资源填充)。

  2. 复合维度剪枝的不可控性:作者提到 ViT 存在“复合维度 pruning 挑战”,MHSA 层的剪枝需同步调整头数、token 数、权重维度,三者均会影响 GPU 波次划分:

    尽管 GPU 的“基于波次的计算粒度”本质未变,但 MHSA 层缺乏与“滤波器”对应的单一可优化单元,导致现有“层剪枝/增长”逻辑无法直接复用。

    • 若仅剪枝头数,可能导致剩余头的计算量仍无法填满尾波;
    • 若同时调整 token 数,又会引入精度损失(与 CNN 仅需调整滤波器数量的单一维度优化完全不同)。

问题 2:并发场景下尾效应的不确定性:影响变化与优化方案的适配挑战

本文实验基于单模型单 kernel 顺序执行假设(依赖 CUDA 10.2/CuDNN 7.6.5),且延迟优化率(11%-27%)建立在该场景下。但当前 GPU 已支持 MPS(多进程服务)、MIG(多实例 GPU)等并发特性,多模型共享 GPU 资源时,不同模型的尾波会相互填充或加剧资源竞争——此时尾效应的影响是被稀释还是放大?现有优化方案的延迟降低率会衰减至多少,是否需要彻底重构“层剪枝/增长”的优化逻辑以适配并发场景?

在 MPS、MIG 等并发场景中,尾效应的影响既可能稀释也可能放大,现有优化方案的延迟降低率衰减幅度暂无数据支撑,但需重构优化逻辑以适配,核心依据来自作者对并发 kernel 的局限性分析:

  1. 尾效应影响的双向性:作者指出,当前优化基于“单模型单 kernel 顺序执行”假设(适配边缘 GPU 与多数服务器 GPU 场景),而 MPS、MIG 允许多模型共享 GPU 资源时,尾效应的走向取决于资源竞争程度:但作者也明确提到,现有 NVIDIA Nsight/Compute 等工具无法“强制两个 kernel 准确对齐共跑”,无法量化两种情况的发生概率。
    • 若多模型的尾波在时间上重叠,空闲 SM 可被其他模型的尾波填充,尾效应会被稀释;
    • 若多模型的计算波次集中在同一时段,反而会加剧资源竞争,导致部分模型的尾波延长(尾效应放大)。
  2. 优化方案的衰减与重构需求:作者表明,现有“11%-27%延迟降低率”建立在单 kernel 场景下,依赖“层剪枝移除尾波、层增长填充尾波”的精准匹配逻辑。而并发场景中,单个模型的层配置优化会受其他模型的波次干扰——例如 A 模型的“层增长”可能抢占 B 模型的尾波资源,导致 B 模型尾效应加剧,此时原有的“精度-延迟”平衡被打破。作者虽未给出具体衰减率(因缺乏并发 profiling 数据),但明确提出“多轮端到端多模型共跑与统计分析”是潜在解决方向,且现有“层剪枝/增长”逻辑需重构:需引入“跨模型资源调度”维度,而非仅优化单个模型的层配置。

unsetunset一、核心背景与问题提出unsetunset

1. DNN 部署的核心矛盾

  • 深层神经网络(DNN)规模持续增长,导致推理延迟(latency)显著升高,需通过模型剪枝、神经架构搜索(NAS)等方法优化,但存在关键痛点:计算量(FLOPs)减少无法稳定转化为延迟降低
  • 传统优化方法仅关注软件层(模型结构),忽略 GPU 硬件执行机制,导致 GPU 资源利用率低下,无法实现预期延迟优化。

2. 关键现象:GPU 尾效应(GPU Tail Effect)

图2. GPU执行模型。计算工作负载会被拆分为大量线程,然后进一步拆分为块和波以进行并行处理。当最后一个波未被填满时,就会发生GPU尾效应,导致GPU资源未被充分利用
图2. GPU执行模型。计算工作负载会被拆分为大量线程,然后进一步拆分为块和波以进行并行处理。当最后一个波未被填满时,就会发生GPU尾效应,导致GPU资源未被充分利用
  • 定义:GPU 执行时将任务拆分为“波次(Wave)”(每波次对应 GPU 一次完整计算周期),若最后一波次未填满 GPU 资源(如 SM、CUDA 核心),仍会消耗完整周期,导致资源闲置,即为“尾效应”。
  • DNN 场景的特殊性
    1. DNN 为深层结构(通常 50 层以上),每层尾效应会累积放大,整体利用率骤降;
    2. 单一层工作负载轻(多数层仅需 1-5 个波次),尾效应占比更高(如 3 波次层的尾效应可能导致 33%资源浪费)。

3. 典型案例:延迟阶梯现象(Latency Staircase)

图1. 滤波器剪枝导致 latency 优化无效的示例。具体而言,通过分析 GPU 的执行机制,我们发现软件层面的 DNN 优化算法(如剪枝和 NAS 算法)未能考虑 GPU 固有的运行时特性,因此容易引发 GPU 尾部效应,导致运行时 GPU 利用率不足,使得这些方法效果不佳。为此,我们提出了一种尾部感知的软硬件 DNN 协同优化方法,以实现极致的 DNN 优化效果和效率。(a)DNN 设计优化。(b)存在尾部效应的 GPU 执行。(c)由 latency 阶梯导致的 GPU 效率低下.
图1. 滤波器剪枝导致 latency 优化无效的示例。具体而言,通过分析 GPU 的执行机制,我们发现软件层面的 DNN 优化算法(如剪枝和 NAS 算法)未能考虑 GPU 固有的运行时特性,因此容易引发 GPU 尾部效应,导致运行时 GPU 利用率不足,使得这些方法效果不佳。为此,我们提出了一种尾部感知的软硬件 DNN 协同优化方法,以实现极致的 DNN 优化效果和效率。(a)DNN 设计优化。(b)存在尾部效应的 GPU 执行。(c)由 latency 阶梯导致的 GPU 效率低下.
图3. 深度神经网络运行时延迟分析。(a)在CIFAR10上的VGG16。(b)在ImageNet上的ResNet50
图3. 深度神经网络运行时延迟分析。(a)在CIFAR10上的VGG16。(b)在ImageNet上的ResNet50
  • 实验观察:对 VGG16(CIFAR10)、ResNet50(ImageNet)逐层剪枝时,延迟并非线性下降,而是呈现“平台期-骤降”的阶梯状(如图 1、3)。
  • 例:VGG16 的 conv-3 层,剪枝至原宽度 13/16 时延迟不变,继续剪至 12/16 才骤降,后续重复该模式——根源是剪枝未改变波次数量,仅减少最后一波次任务量,未消除尾效应。

unsetunset二、GPU 执行机制与延迟建模unsetunset

1. GPU 核心执行逻辑

层级
执行流程
任务拆分
DNN 层计算量 → 海量线程 → 线程块(Block)→ 波次(Wave,每波次=SM 数量 × 单 SM 块数)
执行规则
波次顺序执行,每波次消耗固定周期(ΔL),与块数是否填满无关
尾效应根源
最后一波次块数不足,仍占用 1 个 ΔL,导致延迟“虚高”

2. 延迟数学建模

基于 GPU 计算粒度(波次),DNN 层延迟可表示为:

  • :单波次计算周期;
  • :总波次数量( 为线程块总数, 为 GPU 单波次最大块容量);
  • :向上取整,直接体现尾效应(如 时,实际波次=3,延迟= )。

unsetunset三、DNN 优化的核心痛点(现有方法缺陷)unsetunset

1. 传统优化方法的局限性

图7. “无效剪枝”陷阱。由于没有意识到尾部效应,所示的滤波器剪枝配置并非最优,即在相同延迟下,GPU吞吐量降低了1.3倍–1.5倍。根据官方开源仓库[15],所用的DNN模型是在CIFAR10数据集上的VGG16[32]
图7. “无效剪枝”陷阱。由于没有意识到尾部效应,所示的滤波器剪枝配置并非最优,即在相同延迟下,GPU吞吐量降低了1.3倍–1.5倍。根据官方开源仓库[15],所用的DNN模型是在CIFAR10数据集上的VGG16[32]
图6. 层工作负载的累积分布函数(CDF)显示,在不同的批量大小(BS=1–4)下,大多数(>90%)深度神经网络(DNN)层消耗的GPU波数少于3–9个。在这种情况下,尾部效应(影响最后一个波)的相对影响会被放大。(a)ResNet50。(b)MobileNet。(c)MNasNet
图6. 层工作负载的累积分布函数(CDF)显示,在不同的批量大小(BS=1–4)下,大多数(>90%)深度神经网络(DNN)层消耗的GPU波数少于3–9个。在这种情况下,尾部效应(影响最后一个波)的相对影响会被放大。(a)ResNet50。(b)MobileNet。(c)MNasNet
优化类型
缺陷说明
模型剪枝
盲目减少滤波器数量,可能仅缩小最后一波次任务量,不减少波次数量,延迟不变但吞吐量下降(如 VGG16 剪枝 40%滤波器,吞吐量差距达 1.5 倍,见图 7)
NAS
设计空间依赖人工设定(如{16,32,64}),未匹配 GPU 计算粒度,易生成含尾效应的结构
编译器优化(如 TensorRT)
依赖静态内核模板(仅 100+种,适配 ResNet50/EfficientNet 等常规结构),无法适配多样剪枝后的层形状

2. 尾效应的累积影响

图5. 运行时GPU工作负载与层工作负载之间的偏差说明了由尾效应导致的GPU利用率不足(批大小=1)。这种利用率不足发生在每一层,因此累积起来达到了不可忽视的程度。(a)ResNet50(b)MobileNet(c)MNasNet
图5. 运行时GPU工作负载与层工作负载之间的偏差说明了由尾效应导致的GPU利用率不足(批大小=1)。这种利用率不足发生在每一层,因此累积起来达到了不可忽视的程度。(a)ResNet50(b)MobileNet(c)MNasNet
图6. 层工作负载的累积分布函数(CDF)显示,在不同的批量大小(BS=1–4)下,大多数(>90%)深度神经网络(DNN)层消耗的GPU波数少于3–9个。在这种情况下,尾部效应(影响最后一个波)的相对影响会被放大。(a)ResNet50。(b)MobileNet。(c)MNasNet
图6. 层工作负载的累积分布函数(CDF)显示,在不同的批量大小(BS=1–4)下,大多数(>90%)深度神经网络(DNN)层消耗的GPU波数少于3–9个。在这种情况下,尾部效应(影响最后一个波)的相对影响会被放大。(a)ResNet50。(b)MobileNet。(c)MNasNet

对 ResNet50、MobileNet、MNasNet 的分析显示(图 5、6):

  1. 90%以上层的工作负载对应 ≤5 个波次,尾效应影响显著;
  2. 深层结构中,每层 10%-30%的资源浪费会累积为整体 20%+的延迟冗余。

unsetunset四、核心优化方法:GPU 感知的 DNN 协同优化unsetunset

针对上述问题,提出两类优化方案,核心思路为“匹配 GPU 计算粒度,消除尾效应”。

1. 方案 1:GPU 感知的 NAS 设计空间增强(GPU-Aware NAS)

核心逻辑

通过离线 profiling 识别 GPU 吞吐量峰值对应的层配置,将连续的层宽度设计空间离散化为“无尾效应”的候选集,减少 NAS 搜索复杂度并提升硬件适配性。

关键步骤

  1. 吞吐量峰值识别:对每层测试不同宽度配置,取吞吐量(FLOP/s)最大的配置作为最优解( ),该配置对应波次填满的无尾效应状态;
  2. 设计空间离散化:将层宽度候选集替换为“最优配置序列”(如原{16,32,64}→{24,48,72},匹配 GPU 波次容量);
  3. overhead 分析:单模型 profiling 耗时仅 1-3 分钟(表 1),远低于 NAS 整体搜索时间。
该表格为“离线分析开销”表,展示不同数据集、模型及batch size(BS)下的离线分析耗时。CIFAR数据集(32x32x3)中,VGG16耗时2分22秒-2分25秒,ResNet56耗时1分27秒-1分40秒;ImageNet数据集(224x224x3)中,VGG16耗时2分14秒-2分18秒,ResNet50耗时2分50秒-2分56秒。整体耗时均为分钟级,表明离线分析开销低,对优化流程影响小
该表格为“离线分析开销”表,展示不同数据集、模型及batch size(BS)下的离线分析耗时。CIFAR数据集(32x32x3)中,VGG16耗时2分22秒-2分25秒,ResNet56耗时1分27秒-1分40秒;ImageNet数据集(224x224x3)中,VGG16耗时2分14秒-2分18秒,ResNet50耗时2分50秒-2分56秒。整体耗时均为分钟级,表明离线分析开销低,对优化流程影响小

2. 方案 2:轻量级 DNN 结构微调(Post-Optimization)

针对已剪枝/NAS 生成的“亚优结构”,通过两种操作消除尾效应,平衡延迟与精度:

图8. 我们利用两种操作(即剪枝和嫁接)来消除尾部效应。这两种操作提供了互补的LG和精度增益,并有助于DNN的精度-延迟优化。该图呈现深度学习模型多 GPU 下的分层剪枝与增长优化策略。左侧为流程:上层 “层剪枝” 裁冗余单元减计算,中层、下层 “层增长” 加单元提容量。右侧是分配图,横轴为已用 GPU 周期,纵轴是层索引,不同色块代表不同工作负载,绿色显容量提升,橙色显延迟降低,整体平衡延迟与容量
图8. 我们利用两种操作(即剪枝和嫁接)来消除尾部效应。这两种操作提供了互补的LG和精度增益,并有助于DNN的精度-延迟优化。该图呈现深度学习模型多 GPU 下的分层剪枝与增长优化策略。左侧为流程:上层 “层剪枝” 裁冗余单元减计算,中层、下层 “层增长” 加单元提容量。右侧是分配图,横轴为已用 GPU 周期,纵轴是层索引,不同色块代表不同工作负载,绿色显容量提升,橙色显延迟降低,整体平衡延迟与容量

两种核心操作

操作类型
目标
实现逻辑
层剪枝(Pruning)
降低延迟
减少滤波器数量至“波次数量减少 1”的阈值(如 3 波次 →2 波次),直接消除 1 个 ΔL 延迟
层增长(Grafting)
提升精度(无延迟增加)
增加滤波器数量至“填满最后一波次”,利用闲置资源提升模型容量,不增加波次数量

优化算法(Algorithm 1)

  • 精度导向:约束延迟不变( ),最大化参数增益( ),提升模型精度;
  • 延迟导向:约束精度不变( ,τ 为参数容忍度),最大化延迟降低( );
  • 流程:先识别最优配置 → 估算每层剪枝/增长的收益 → 贪心调整层结构 → 验证延迟/精度目标。
算法1 轻量级深度神经网络结构微调。该算法是轻量级DNN结构微调算法。输入模型初始层配置、延迟和吞吐量分析结果,输出新配置。先确定每层设计空间,遍历层获取延迟增益(LG)和参数增益(PG)并排序。循环剪枝延迟增益最大的层,再调整参数增益在容忍度内,评估新延迟,达标则训练评估精度,否则调整容忍度重复,最终返回微调后的配置,以平衡延迟与精度优化DNN结构
算法1 轻量级深度神经网络结构微调。该算法是轻量级DNN结构微调算法。输入模型初始层配置、延迟和吞吐量分析结果,输出新配置。先确定每层设计空间,遍历层获取延迟增益(LG)和参数增益(PG)并排序。循环剪枝延迟增益最大的层,再调整参数增益在容忍度内,评估新延迟,达标则训练评估精度,否则调整容忍度重复,最终返回微调后的配置,以平衡延迟与精度优化DNN结构

unsetunset五、实验验证:效果与泛化性unsetunset

1. 实验设置

维度
细节
硬件
4 类 GPU(高端:3080Ti、Titan-V、P6000;嵌入式:Jetson Nano)
软件栈
CUDA 10.2、CuDNN 7.6.5
对比方法
剪枝:HRank、SOFT、SLIM、DEPG;NAS:EfficientNet(B0-B2)
评价指标
延迟(ns/ms)、精度(%)、吞吐量(FLOP/s)、参数数量(M)

2. 关键实验结果

(1)剪枝优化效果(表 3、表 4)

模型
对比方法
延迟降低率
精度变化
吞吐量提升倍数
VGG16(CIFAR10)
HRank
17.7%
-0.2%
1.6×(2.41T→3.90T)
ResNet56(CIFAR10)
SOFT-2
17.3%
0%
1.16×(0.68T→0.79T)
ResNet50(ImageNet)
DEPG
13.1%
-0.05%
-
表IV 与最先进基准的准确率/延迟对比
表IV 与最先进基准的准确率/延迟对比
表III 延迟优化与GPU吞吐量分析(TITAN V)
表III 延迟优化与GPU吞吐量分析(TITAN V)

(2)NAS 优化效果(表 5、图 12)

表V 高效网络(EfficientNets)的精度优化
表V 高效网络(EfficientNets)的精度优化
图12. ImageNet准确率和延迟对比。与EfficientNets(黄色)和其他模型相比,我们的GPU感知优化模型实现了更优的准确率-延迟权衡。评估平台:NVIDIA TitanV GPU
图12. ImageNet准确率和延迟对比。与EfficientNets(黄色)和其他模型相比,我们的GPU感知优化模型实现了更优的准确率-延迟权衡。评估平台:NVIDIA TitanV GPU
  • 优化 EfficientNet(B0-B2):
    1. 精度提升 2.54%-3.97%(如 B0:77.52%→81.49%);
    2. 延迟基本不变,吞吐量提升 5-6 倍(如 B0:61.9G→414.2G FLOP/s);
    3. 与 ResNet、Inception 等对比,优化后模型实现“更高精度+更低延迟”(如 B2 延迟比同精度 EfficientNet-B4 低 1.5 倍)。

(3)泛化性验证

  • 跨 GPU 平台
    • P6000(高端):VGG16 延迟降 27.2%,ResNet56 降 9.0%;
    • Jetson Nano(嵌入式):VGG16 降 20.5%,ResNet56 降 13.3%-17.1%;
  • 跨超参数:batch size(1-256)、输入分辨率(128²-1024²)、滤波器形状(1×1/3×3/5×5)均存在延迟阶梯现象(深度可分离卷积除外,但组合后仍有尾效应)。

3. 核心结论

  • 所提方法通过“消除 GPU 尾效应”,实现11%-27%延迟降低(剪枝场景)、2.54%-3.97%精度提升(NAS 场景),且在高端/嵌入式 GPU、不同 DNN 超参数下均具备泛化性。

unsetunset六、局限性与未来方向unsetunset

1. 现有局限性

  • 假设单模型顺序执行,无法适配 CUDA 新特性(多流、MPS、MIG)的并发核场景(工具如 Nsight Compute 暂不支持并发核精确 profiling);
  • 不适用于视觉 Transformer(ViT):MHSA 层计算机制与 CNN 不同,当前尾效应分析无法直接复用。

2. 未来工作

  • 研究并发核场景下的尾效应交互机制,开发多模型协同优化方法;
  • 扩展尾效应分析至 ViT,针对 MHSA 层设计“复合粒度”优化策略。

unsetunset七、总结unsetunset

本文的核心贡献在于:

  1. 首次明确“GPU 尾效应”是“FLOPs 减少 ≠ 延迟降低”的根源,并建立基于波次的延迟模型;
  2. 提出 GPU 感知的 NAS 设计空间增强与轻量级微调方法,实现软件-硬件协同优化;
  3. 实验验证了方法在多 GPU、多模型、多超参数下的有效性,为低延迟 DNN 部署提供新范式。

unsetunset参考文献unsetunset

更多推荐
交流加群请在 NeuralTalk 公众号后台回复:加群

【声明】内容源于网络
0
0
NeuralTalk
关注深度学习框架开发、模型压缩、低比特量化、移动端推理加速性能优化、工程化部署,v: zhushi202409
内容 517
粉丝 0
NeuralTalk 关注深度学习框架开发、模型压缩、低比特量化、移动端推理加速性能优化、工程化部署,v: zhushi202409
总阅读785
粉丝0
内容517