基于性能感知的模型裁剪方法、装置、设备和介质.pdf

上传人:磨** 文档编号:10562238 上传时间:2021-06-24 格式:PDF 页数:13 大小:593.86KB
收藏 版权申诉 举报 下载
基于性能感知的模型裁剪方法、装置、设备和介质.pdf_第1页
第1页 / 共13页
基于性能感知的模型裁剪方法、装置、设备和介质.pdf_第2页
第2页 / 共13页
基于性能感知的模型裁剪方法、装置、设备和介质.pdf_第3页
第3页 / 共13页
文档描述:

《基于性能感知的模型裁剪方法、装置、设备和介质.pdf》由会员分享,可在线阅读,更多相关《基于性能感知的模型裁剪方法、装置、设备和介质.pdf(13页完成版)》请在专利查询网上搜索。

1、(19)中华人民共和国国家知识产权局 (12)发明专利申请 (10)申请公布号 (43)申请公布日 (21)申请号 202010306057.X (22)申请日 2020.04.17 (71)申请人 苏州浪潮智能科技有限公司 地址 215100 江苏省苏州市吴中区吴中经 济开发区郭巷街道官浦路1号9幢 (72)发明人 刘姝 (74)专利代理机构 北京连和连知识产权代理有 限公司 11278 代理人 宋薇薇 (51)Int.Cl. G06N 3/08(2006.01) (54)发明名称 一种基于性能感知的模型裁剪方法、 装置、 设备和介质 (57)摘要 本发明公开了一种基于性能感知的模型裁 剪方。

2、法, 包括: 获取不同的通道设置在软件平台 上的符合预设标准的性能表现; 根据性能表现, 搜索并获取不同精度的若干第一候选裁剪模型; 根据计算量在若干第一候选裁剪模型中获取精 度最高的预设数量的第二候选裁剪模型; 通过硬 件计算平台分别获取预设数量的第二候选裁剪 模型的实际延时性能表现, 从预设数量的第二候 选裁剪模型中获取实际延时性能表现最高的裁 剪模型进行裁剪。 本发明还公开了一种装置、 设 备和介质。 本发明提出的基于性能感知的模型裁 剪方法、 装置、 设备和介质可满足深度学习用户 对神经网络模型精度、 资源占用、 延时实时性能 的多重需求。 权利要求书2页 说明书8页 附图2页 CN 。

3、111488990 A 2020.08.04 CN 111488990 A 1.一种基于性能感知的模型裁剪方法, 其特征在于, 所述方法包括: 获取不同的通道设置在软件平台上的符合预设标准的性能表现; 根据所述性能表现, 搜索并获取不同精度的若干第一候选裁剪模型; 根据计算量在若干所述第一候选裁剪模型中获取精度最高的预设数量的第二候选裁 剪模型; 通过硬件计算平台分别获取所述预设数量的第二候选裁剪模型的实际延时性能表现, 从所述预设数量的第二候选裁剪模型中获取所述实际延时性能表现最高的裁剪模型进行 裁剪。 2.根据权利要求1所述的基于性能感知的模型裁剪方法, 其特征在于, 所述获取不同的 通道。

4、设置在软件平台上的符合预设标准的性能表现还包括: 基于神经网络模型各层所述通道设置的个数是否为32的整数倍来判断性能表现是否 符合预设标准。 3.根据权利要求1所述的基于性能感知的模型裁剪方法, 其特征在于, 所述获取不同的 通道设置在软件平台上的符合预设标准的性能表现还包括: 响应于所述计算量相同, 基于卷积层的所述通道设置的个数来判断性能表现是否符合 预设标准。 4.根据权利要求1所述的基于性能感知的模型裁剪方法, 其特征在于, 所述通过硬件计 算平台分别获取所述预设数量的第二候选裁剪模型的实际延时性能表现, 从所述预设数量 的第二候选裁剪模型中获取所述实际延时性能表现最高的裁剪模型进行裁。

5、剪还包括: 通过延时时间表示所述实际延时性能表现, 所述延时时间越短表示所述实际延时性能 表现越高。 5.根据权利要求1所述的基于性能感知的模型裁剪方法, 其特征在于, 所述根据所述性 能表现, 搜索并获取不同精度的若干第一候选裁剪模型还包括: 将所述通道设置的个数限制为32的整数倍进行搜索, 并且对于神经网络较浅的层增大 裁剪比率, 较深的层减小裁剪比率进行裁剪。 6.一种基于性能感知的模型裁剪装置, 其特征在于, 所述装置包括: 性能探索模块, 所述性能探索模块配置为获取不同的通道设置在软件平台上的符合预 设标准的性能表现; 第一候选模块, 所述第一候选裁剪模块配置为根据所述性能表现, 搜。

6、索并获取不同精 度的若干第一候选裁剪模型; 第二候选模块, 所述第二候选裁剪模块配置为根据FLOPs在若干所述第一候选裁剪模 型中获取精度最高的预设数量的第二候选裁剪模型; 裁剪模块, 所述裁剪模块配置为通过硬件计算平台分别获取所述预设数量的第二候选 裁剪模型的实际延时性能表现, 从所述预设数量的第二候选裁剪模型中获取所述实际延时 性能表现最高的裁剪模型进行裁剪。 7.根据权利要求6所述的基于性能感知的模型裁剪装置, 其特征在于, 所述性能探索模 块还配置为: 基于神经网络模型各层所述通道设置的个数是否为32的整数倍来判断性能表现是否 符合预设标准。 权利要求书 1/2 页 2 CN 1114。

7、88990 A 2 8.根据权利要求6所述的基于性能感知的模型裁剪装置, 其特征在于, 所述性能探索模 块还配置为: 响应于所述计算量相同, 基于卷积层的所述通道设置的个数来判断性能表现是否符合 预设标准。 9.一种计算机设备, 其特征在于, 包括: 至少一个处理器; 以及 存储器, 所述存储器存储有可在所述处理器上运行的计算机程序, 其特征在于, 所述处 理器执行所述程序时执行如权利要求1-5任意一项所述的方法。 10.一种计算机可读存储介质, 所述计算机可读存储介质存储有计算机程序, 其特征在 于, 所述计算机程序被处理器执行时执行权利要求1-5任意一项所述的方法。 权利要求书 2/2 页。

8、 3 CN 111488990 A 3 一种基于性能感知的模型裁剪方法、 装置、 设备和介质 技术领域 0001 本发明涉及神经网络领域, 更具体地, 特别是指一种基于性能感知的模型裁剪方 法、 装置、 设备和介质。 背景技术 0002 近几年来随着深度学习技术的快速发展, 越来越多的神经网络模型被应用到工业 界中, 并取得了惊人得成就, 如ResNet50、 ResNet101、 InceptionV1-V3、 SSD等, 广泛应用于 图像识别、 目标检测等领域。 为了得到更好得精度指标, 神经网络模型被设计得越来越复 杂, 紧接着带来的问题是复杂模型很难部署到内存、 带宽等资源受限的硬件平。

9、台或移动设 备, 同时对于一些如在线学习、 增量学习以及自动驾驶的实时应用来说, 计算量、 参数量高 达数千万或上亿的复杂模型很难满足其实时要求。 模型压缩成为深度学习应用加速的一大 重要目标, 模型参数剪枝是目前模型加速的一个重要方向, 模型剪枝包括非结构化裁剪与 结构化裁剪, 结构化裁剪是对神经网络模型通道(channel)级别的裁剪, 不受计算平台的限 制, 应用范围更广, 从手动裁剪发展到自动化裁剪, 通过裁剪相应channel来降低模型计算 复杂度, 从而满足神经网络模型对计算资源、 实时性的需求。 0003 目前的模型裁剪压缩方法中, 多数聚焦在计算量(FLOPs)或参数量(Par。

10、ams)的裁 剪, 结构化裁剪就是通过逐渐裁剪神经网络各层channel连接个数, 通过降低模型计算量或 参数量的方式达到降低模型复杂度的需求。 目前的结构化裁剪技术包括channel pruning、 DCP、 AutoSlim、 AMC、 Meta-pruning等, 他们一边通过相应技术裁剪模型各层通道个数(如网 络架构搜索、 通道重要性评估), 达到计算量下降到指定目标, 从而降低模型复杂度, 同时通 过相应技术保持模型精度(如目标函数优化、 验证精度评估等), 甚至可在将计算量裁剪 50的情况下保持精度损失在较小范围内。 0004 Meta-pruning是一种基于神经网络模型架构搜。

11、索的AutoPruning自动化channel 裁剪方法, 该技术针对现有神经网络模型首先训练一个meta元网络, 用于生成不同channel 个数下候选裁剪模型的权重值, 然后利用随机搜索的方式进行channel搜索, 搜索过程中神 经网络各层channel均有不同程度的裁剪, 最后基于FLOPs限制得到满足特定FLOPs需求的 裁剪模型。 0005 图1示出了基于现有技术的裁剪方法的实施例的结构性示意图, 如图1所示, 训练 阶段为训练一个meta元网络, 目的是生成针对各个可能的通道裁剪模型的权重值; 搜索阶 段为裁剪模型搜索阶段, 首先设置裁剪后模型FLOPs限制, 通过对模型每层通道。

12、设置随机值 进行裁剪模型随机搜索, 得到满足FLOPs需求的裁剪模型, 最后通过精度评估筛选得到满足 FLOPs需求的精度较高的最终裁剪模型。 0006 目前基于FLOPs限制的AutoPruning模型裁剪方法中, 通过通道的裁剪搜索和组合 可达到降低模型复杂度的需求, 但是当应用到实际硬件平台时, 网络难以达到真正的延时 (latency)实时性能提升, 如该技术对于resnet50的裁剪模型, 在计算量降低50的情况 下, 实际latency性能仅提升25, 导致无法满足用户对具体应用平台的实际性能提升需 说明书 1/8 页 4 CN 111488990 A 4 求。 同时通过相应实验发。

13、现, 同一个裁剪模型在不同的硬件平台或计算库上, 性能表现存在 一定差异。 所以目前模型裁剪技术中单纯基于FLOPs的裁剪一般很难达到在特定计算平台 上的实际性能的提升。 0007 目前的手动模型裁剪或自动化模型裁剪技术中, 多数基于标量信息裁剪(以FLOPs 的降低为指标, 通过降低计算量以降低模型复杂度), 而忽略了裁剪后模型在具体硬件平台 上的实际性能表现(如latcney), 从而无法满足对裁剪网络实时性的要求。 通过实验发现, 基于channel裁剪的不同模型在裁剪到相同FLOPs下时, 在特定硬件平台上的实际性能差异 可到18, 同时随机设置裁剪channel值会导致搜索效率低下,。

14、 且得到的裁剪模型在软硬件 平台上的latency性能表现普遍较低。 发明内容 0008 有鉴于此, 本发明实施例的目的在于提供一种基于性能感知的AutoPruning模型 裁剪, 一方面通过神经网络搜索实现模型自动化裁剪, 另一方面基于神经网络模型在特定 硬件平台或软件加速库上的性能感知, 优化裁剪模型通道目标值的设置, 同时加入延时实 际性能指标作为候选裁剪模型的选择目标。 该发明可解决目前神经网络模型裁剪过程中存 在的计算量降低与实际性能提升无法成正比、 裁剪模型实时延时性能无法满足特定要求的 问题, 可实现裁剪模型性能的高效提升。 0009 基于上述目的, 本发明一方面提供了一种基于性。

15、能感知的模型裁剪方法, 该方法 包括: 获取不同的通道设置在软件平台上的符合预设标准的性能表现; 根据性能表现, 搜索 并获取不同精度的若干第一候选裁剪模型; 根据计算量在若干第一候选裁剪模型中获取精 度最高的预设数量的第二候选裁剪模型; 通过硬件计算平台分别获取预设数量的第二候选 裁剪模型的实际延时性能表现, 从预设数量的第二候选裁剪模型中获取实际延时性能表现 最高的裁剪模型进行裁剪。 0010 在本发明的基于性能感知的模型裁剪方法的一些实施方式中, 获取不同的通道设 置在软件平台上的符合预设标准的性能表现还包括: 基于神经网络模型各层通道设置的个 数是否为32的整数倍来判断性能表现是否符合。

16、预设标准。 0011 在本发明的基于性能感知的模型裁剪方法的一些实施方式中, 获取不同的通道设 置在软件平台上的符合预设标准的性能表现还包括: 响应于计算量相同, 基于卷积层的通 道设置的个数来判断性能表现是否符合预设标准。 0012 在本发明的基于性能感知的模型裁剪方法的一些实施方式中, 通过硬件计算平台 分别获取预设数量的第二候选裁剪模型的实际延时性能表现, 从预设数量的第二候选裁剪 模型中获取实际延时性能表现最高的裁剪模型进行裁剪还包括: 0013 通过延时时间表示实际延时性能表现, 延时时间越短表示实际延时性能表现越 高。 0014 在本发明的基于性能感知的模型裁剪方法的一些实施方式中。

17、, 根据性能表现, 搜 索并获取不同精度的若干第一候选裁剪模型还包括: 将通道设置的个数限制为32的整数倍 进行搜索, 并且对于神经网络较浅的层增大裁剪比率, 较深的层减小裁剪比率进行裁剪。 0015 本发明实施例的另一方面, 还提供了一种基于性能感知的模型裁剪装置, 该装置 包括: 性能探索模块, 性能探索模块配置为获取不同的通道设置在软件平台上的符合预设 说明书 2/8 页 5 CN 111488990 A 5 标准的性能表现; 第一候选模块, 第一候选裁剪模块配置为根据性能表现, 搜索并获取不同 精度的若干第一候选裁剪模型; 第二候选模块, 第二候选裁剪模块配置为根据计算量在若 干第一候。

18、选裁剪模型中获取精度最高的预设数量的第二候选裁剪模型; 裁剪模块, 裁剪模 块配置为通过硬件计算平台分别获取预设数量的第二候选裁剪模型的实际延时性能表现, 从预设数量的第二候选裁剪模型中获取实际延时性能表现最高的裁剪模型进行裁剪。 0016 在本发明的基于性能感知的模型裁剪装置的一些实施方式中, 性能探索模块还配 置为: 基于神经网络模型各层通道设置的个数是否为32的整数倍来判断性能表现是否符合 预设标准。 0017 在本发明的基于性能感知的模型裁剪装置的一些实施方式中, 性能探索模块还配 置为: 响应于计算量相同, 基于卷积层的通道设置的个数来判断性能表现是否符合预设标 准。 0018 本发。

19、明实施例的另一方面, 还提供了一种计算机设备, 该计算机设备包括: 至少一 个处理器; 以及存储器, 存储器存储有可在处理器上运行的计算机程序, 处理器执行程序时 执行前述的基于性能感知的模型裁剪方法。 0019 本发明实施例的再一方面, 还提供了一种计算机可读存储介质, 计算机可读存储 介质存储有计算机程序, 其特征在于, 计算机程序被处理器执行时执行前述的基于性能感 知的模型裁剪方法。 0020 本发明至少具有以下有益技术效果: 本发明提出的技术方案通过基于性能感知的 模型裁剪实现神经网络模型加速, 可解决神经网络模型压缩裁剪过程中存在的裁剪后模型 难以得到理想加速性能提升的问题。 本发明。

20、首先通过先验通道性能感知评估, 产生神经网 络模型的裁剪规则, 然后通过规则搜索产生候选裁剪模型, 最后通过精度、 计算量、 延时综 合评估得到最终裁剪模型, 同时满足硬件平台对计算资源的限制与实时性的要求。 本发明 实现了裁剪后模型基于特定软硬件平台实际延时性能的最优化, 对于经典分类模型 resnet50, 裁剪后的模型在TensorRT上的延时性能可提升至2倍。 本发明提出的技术方案可 满足深度学习用户对深度学习模型的性能、 精度需求。 附图说明 0021 为了更清楚地说明本发明实施例或现有技术中的技术方案, 下面将对实施例或现 有技术描述中所需要使用的附图作简单地介绍, 显而易见地, 。

21、下面描述中的附图仅仅是本 发明的一些实施例, 对于本领域普通技术人员来讲, 在不付出创造性劳动的前提下, 还可以 根据这些附图获得其他的实施例。 0022 图1示出了基于现有技术的裁剪方法的实施例的结构性示意图; 0023 图2示出了根据本发明的基于性能感知的模型裁剪方法的实施例的示意性框图; 0024 图3示出了根据本发明的基于性能感知的模型裁剪方法的实施例的结构性示意 图。 具体实施方式 0025 为使本发明的目的、 技术方案和优点更加清楚明白, 以下结合具体实施例, 并参照 附图, 对本发明实施例进一步详细说明。 说明书 3/8 页 6 CN 111488990 A 6 0026 需要说。

22、明的是, 本发明实施例中所有使用 “第一” 和 “第二” 的表述均是为了区分两 个相同名称非相同的实体或者非相同的参量, 可见 “第一” 和 “第二” 仅为了表述的方便, 不 应理解为对本发明实施例的限定, 后续实施例对此不再一一说明。 0027 基于上述目的, 本发明实施例的第一个方面, 提出了一种基于性能感知的模型裁 剪方法的实施例。 图2示出的是根据本发明的基于性能感知的模型裁剪方法的实施例的示 意图。 如图2所示的实施例中, 该方法至少包括如下步骤: 0028 S100、 获取不同的通道设置在软件平台上的符合预设标准的性能表现; 0029 S200、 根据性能表现, 搜索并获取不同精度。

23、的若干第一候选裁剪模型; 0030 S300、 根据计算量在若干第一候选裁剪模型中获取精度最高的预设数量的第二候 选裁剪模型; 0031 S400、 通过硬件计算平台分别获取预设数量的第二候选裁剪模型的实际延时性能 表现, 从预设数量的第二候选裁剪模型中获取实际延时性能表现最高的裁剪模型进行裁 剪。 0032 在本发明的一些实施例中, 图3示出的是根据本发明的基于性能感知的模型裁剪 方法的实施例的结构性示意图, 如图3所示, 本发明提出的基于性能感知的模型裁剪方法, 以网络各层通道(channel)为基本裁剪单位, 通过裁剪channel个数来降低计算量(FLOPs) 和参数量(Params)。

24、, 进而降低模型复杂度, 本发明结合裁剪后模型在具体硬件平台和软件 加速库上的实际latency(延时)性能表现来选择最终裁剪模型, 而非仅仅是以计算量或参 数量为裁剪模型候选指标, 可保证同时满足硬件平台对裁剪后模型资源限制、 实时性的目 标要求。 0033 候选裁剪模型的选择, 基于自动化channel搜索可产生不同精度下的多个候选模 型, 候选模型不仅仅以计算量(FLOPs)为主要评估指标, 而是结合其在TensorRT上的实际 latency性能表现, 以精度、 FLOPs、 latency为候选模型的最终评估指标, 实施方法如下: 在 FLOPs限制下自动化搜索得到精度最高的topk。

25、个候选模型, 对于topk个候选模型, 基于硬件 计算平台分别评估其在TensorRT上的性能表现, 以实际latency性能为关键评估指标, 自动 评估筛选得到在软硬件计算平台上实际latency性能最佳的裁剪模型。 0034 本发明所提出的基于性能感知的裁剪方法, 通过性能先验感知, 裁剪效率最大限 度提高, 可在精度、 FLOPs、 latency上同时满足对裁剪模型的剪裁网络的需求, FLOPs可满足 硬件资源限制的需求, latency可满足实时性能的需求, 从而保证裁剪满足特定硬件计算平 台上对计算资源限制、 实时性限制的需求, 实现了自动化裁剪模型的效率、 性能、 精度最大 化。。

26、 本发明提出的技术方案可适用于大部分硬件计算平台与软件加速库。 0035 根据本发明的基于性能感知的模型裁剪方法的一些实施方式, 获取不同的通道设 置在软件平台上的符合预设标准的性能表现还包括: 0036 基于神经网络模型各层通道设置的个数是否为32的整数倍来判断性能表现是否 符合预设标准。 例如, 神经网络模型各层通道设置的个数为32的整数倍, 则性能表现更高。 0037 在本发明的一些实施例中, 裁剪模型的软件加速库基于TensorRT, 首先通过实验 探索channel设定在软件平台上的性能表现, 如在TensorRT上, 当神经网络模型各层 channel为32整数倍时(如各层chan。

27、nel个数为32、 64256、 512), 模型可达到更高的性能。 0038 根据本发明的基于性能感知的模型裁剪方法的一些实施方式, 获取不同的通道设 说明书 4/8 页 7 CN 111488990 A 7 置在软件平台上的符合预设标准的性能表现还包括: 0039 响应于FLOPs相同, 基于卷积层的通道设置的个数来判断性能表现是否符合预设 标准。 例如, 通道设置的个数越大的卷积层的性能表现更高。 0040 在本发明的一些实施例中, 对于网络的不同卷积层, 当计算量相同时, channel个 数更大的卷积层实际性能表现更好, 所以对channel数值较大的网络应尽可能保留更多 chann。

28、el。 本发明提出的基于性能感知的模型裁剪方法在搜索阶段基于以上性能先验感知。 0041 根据本发明的基于性能感知的模型裁剪方法的一些实施方式, 通过硬件计算平台 分别获取预设数量的第二候选裁剪模型的实际延时性能表现, 从预设数量的第二候选裁剪 模型中获取实际延时性能表现最高的裁剪模型进行裁剪还包括: 0042 通过延时时间表示实际延时性能表现, 延时时间越短表示实际延时性能表现越 高。 0043 在本发明的一些实施例中, 性能表现包括实际latency性能表现、 FLOPs。 基于自动 化channel搜索可产生不同精度下的多个候选模型, 候选模型不仅仅以FLOPs为主要评估指 标, 而是结。

29、合其在TensorRT上的实际latency性能表现, 以精度、 FLOPs、 latency为候选模型 的最终评估指标。 其中实际latency性能表现即实际延时性能表现, 在一些实施例中, 通过 延时时间来表示其实际延时性能表现, 如图3所示的实施例中, 获取的第二候选裁剪模型中 的延时时间分别为1.2ms、 1.3ms1.6ms等, 其中最小的1.2ms即为本发明实施例中最佳模 型对应的实际延时性能表现。 0044 根据本发明的基于性能感知的模型裁剪方法的一些实施方式, 根据性能表现, 搜 索并获取不同精度的若干第一候选裁剪模型还包括: 0045 将通道设置的个数限制为32的整数倍进行搜。

30、索, 并且对于神经网络较浅的层增大 裁剪比率, 较深的层减小裁剪比率进行裁剪。 0046 在本发明的一些实施例中, AutoPruning裁剪模型自动化搜索, 自动化裁剪采用性 能先验感知裁剪, 以TensorRT上的不同通道设置的实际性能表现为基本参考, 裁剪channel 的搜索限制为32整数倍, 同时对于神经网络较浅的层增大其裁剪比率, 较深的层减小其裁 剪比率, 基于先验感知裁剪channel的设置一方面可以保证性能最大化, 另一方面可提升搜 索效率。 0047 本发明提出的基于性能感知的神经网络模型裁剪应用在计算机视觉领域如图像 分类、 目标检测等, 该技术同样可应用在NLP(自然语。

31、言处理)领域模型的加速, 针对NLP模型 结构特点, 通过先验探索其模型在软硬件平台上的性能表现, 基于特定规则进行NLP模型压 缩裁剪, 降低模型复杂度, 提升NLP模型在计算平台上的推理性能表现。 0048 本发明实施例的另一方面, 提出了一种基于性能感知的模型裁剪装置的实施例。 该装置包括: 0049 性能探索模块, 性能探索模块配置为获取不同的通道设置在软件平台上的符合预 设标准的性能表现; 0050 第一候选模块, 第一候选裁剪模块配置为根据性能表现, 搜索并获取不同精度的 若干第一候选裁剪模型; 0051 第二候选模块, 第二候选裁剪模块配置为根据FLOPs在若干第一候选裁剪模型中。

32、 获取精度最高的预设数量的第二候选裁剪模型; 说明书 5/8 页 8 CN 111488990 A 8 0052 裁剪模块, 裁剪模块配置为通过硬件计算平台分别获取预设数量的第二候选裁剪 模型的实际latency性能表现, 从预设数量的第二候选裁剪模型中获取实际latency性能表 现最高的裁剪模型进行裁剪。 0053 根据本发明的基于性能感知的模型裁剪装置的一些实施方式, 性能探索模块还配 置为: 0054 基于神经网络模型各层通道设置的个数是否为32的整数倍来判断性能表现是否 符合预设标准。 0055 根据本发明的基于性能感知的模型裁剪装置的一些实施方式, 性能探索模块还配 置为: 005。

33、6 响应于FLOPs相同, 基于卷积层的通道设置的个数来判断性能表现是否符合预设 标准。 0057 基于上述目的, 本发明实施例的另一方面, 还提出了一种计算机设备, 该计算机设 备包括: 至少一个处理器; 以及存储器, 存储器存储有可在处理器上运行的计算机程序, 处 理器执行程序时执行前述的基于性能感知的模型裁剪方法。 0058 本发明实施例的再一方面, 还提供了一种计算机可读存储介质, 计算机可读存储 介质存储有计算机程序, 其特征在于, 计算机程序被处理器执行时执行前述的基于性能感 知的模型裁剪方法。 0059 同样地, 本领域技术人员应当理解, 以上针对根据本发明的基于性能感知的模型 。

34、裁剪方法阐述的所有实施方式、 特征和优势同样地适用于根据本发明的装置、 计算机设备 和介质。 为了本公开的简洁起见, 在此不再重复阐述。 0060 需要特别指出的是, 上述基于性能感知的模型裁剪方法、 装置、 设备和介质的各个 实施例中的各个步骤均可以相互交叉、 替换、 增加、 删减, 因此, 这些合理的排列组合变换之 于基于性能感知的模型裁剪方法、 装置、 设备和介质也应当属于本发明的保护范围, 并且不 应将本发明的保护范围局限在实施例之上。 0061 最后需要说明的是, 本领域普通技术人员可以理解实现上述实施例方法中的全部 或部分流程, 可以通过计算机程序来指令相关硬件来完成, 基于性能感。

35、知的模型裁剪方法 的程序可存储于一计算机可读取存储介质中, 该程序在执行时, 可包括如上述各方法的实 施例的流程。 其中, 程序的存储介质可为磁碟、 光盘、 只读存储记忆体(ROM)或随机存储记忆 体(RAM)等。 上述计算机程序的实施例, 可以达到与之对应的前述任意方法实施例相同或者 相类似的效果。 0062 此外, 根据本发明实施例公开的方法还可以被实现为由处理器执行的计算机程 序, 该计算机程序可以存储在计算机可读存储介质中。 在该计算机程序被处理器执行时, 执 行本发明实施例公开的方法中限定的上述功能。 0063 此外, 上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实。

36、 现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。 0064 此外, 应该明白的是, 本文的计算机可读存储介质(例如, 存储器)可以是易失性存 储器或非易失性存储器, 或者可以包括易失性存储器和非易失性存储器两者。 作为例子而 非限制性的, 非易失性存储器可以包括只读存储器(ROM)、 可编程ROM(PROM)、 电可编程ROM (EPROM)、 电可擦写可编程ROM(EEPROM)或快闪存储器。 易失性存储器可以包括随机存取存 说明书 6/8 页 9 CN 111488990 A 9 储器(RAM), 该RAM可以充当外部高速缓存存储器。 作为例子而非限制性的, RAM可以以多种 。

37、形式获得, 比如同步RAM(DRAM)、 动态RAM(DRAM)、 同步DRAM(SDRAM)、 双数据速率SDRAM(DDR SDRAM)、 增强SDRAM(ESDRAM)、 同步链路DRAM(SLDRAM)、 以及直接Rambus RAM(DRRAM)。 所公 开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。 0065 本领域技术人员还将明白的是, 结合这里的公开所描述的各种示例性逻辑块、 模 块、 电路和算法步骤可以被实现为电子硬件、 计算机软件或两者的组合。 为了清楚地说明硬 件和软件的这种可互换性, 已经就各种示意性组件、 方块、 模块、 电路和步骤的功能对其进 行了一。

38、般性的描述。 这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加 给整个系统的设计约束。 本领域技术人员可以针对每种具体应用以各种方式来实现的功 能, 但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。 0066 结合这里的公开所描述的各种示例性逻辑块、 模块和电路可以利用被设计成用于 执行这里功能的下列部件来实现或执行: 通用处理器、 数字信号处理器(DSP)、 专用集成电 路(ASIC)、 现场可编程门阵列(FPGA)或其它可编程逻辑器件、 分立门或晶体管逻辑、 分立的 硬件组件或者这些部件的任何组合。 通用处理器可以是微处理器, 但是可替换地, 处理器可 以是任何传统。

39、处理器、 控制器、 微控制器或状态机。 处理器也可以被实现为计算设备的组 合, 例如, DSP和微处理器的组合、 多个微处理器、 一个或多个微处理器结合DSP和/或任何其 它这种配置。 0067 结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、 由处理器执 行的软件模块中或这两者的组合中。 软件模块可以驻留在RAM存储器、 快闪存储器、 ROM存储 器、 EPROM存储器、 EEPROM存储器、 寄存器、 硬盘、 可移动盘、 CD-ROM、 或本领域已知的任何其 它形式的存储介质中。 示例性的存储介质被耦合到处理器, 使得处理器能够从该存储介质 中读取信息或向该存储介质写入信息。 。

40、在一个替换方案中, 存储介质可以与处理器集成在 一起。 处理器和存储介质可以驻留在ASIC中。 ASIC可以驻留在用户终端中。 在一个替换方案 中, 处理器和存储介质可以作为分立组件驻留在用户终端中。 0068 在一个或多个示例性设计中, 功能可以在硬件、 软件、 固件或其任意组合中实现。 如果在软件中实现, 则可以将功能作为一个或多个指令或代码存储在计算机可读介质上或 通过计算机可读介质来传送。 计算机可读介质包括计算机存储介质和通信介质, 该通信介 质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。 存储介质可以是能 够被通用或专用计算机访问的任何可用介质。 作为例子而非限制性。

41、的, 该计算机可读介质 可以包括RAM、 ROM、 EEPROM、 CD-ROM或其它光盘存储设备、 磁盘存储设备或其它磁性存储设 备, 或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或 专用计算机或者通用或专用处理器访问的任何其它介质。 此外, 任何连接都可以适当地称 为计算机可读介质。 例如, 如果使用同轴线缆、 光纤线缆、 双绞线、 数字用户线路(DSL)或诸 如红外线、 无线电和微波的无线技术来从网站、 服务器或其它远程源发送软件, 则上述同轴 线缆、 光纤线缆、 双绞线、 DSL或诸如红外线、 无线电和微波的无线技术均包括在介质的定 义。 如这里所使用的, 。

42、磁盘和光盘包括压缩盘(CD)、 激光盘、 光盘、 数字多功能盘(DVD)、 软 盘、 蓝光盘, 其中磁盘通常磁性地再现数据, 而光盘利用激光光学地再现数据。 上述内容的 组合也应当包括在计算机可读介质的范围内。 0069 以上是本发明公开的示例性实施例, 但是应当注意, 在不背离权利要求限定的本 说明书 7/8 页 10 CN 111488990 A 10 发明实施例公开的范围的前提下, 可以进行多种改变和修改。 根据这里描述的公开实施例 的方法权利要求的功能、 步骤和/或动作不需以任何特定顺序执行。 此外, 尽管本发明实施 例公开的元素可以以个体形式描述或要求, 但除非明确限制为单数, 也可。

43、以理解为多个。 0070 应当理解的是, 在本文中使用的, 除非上下文清楚地支持例外情况, 单数形式 “一 个” 旨在也包括复数形式。 还应当理解的是, 在本文中使用的 “和/或” 是指包括一个或者一 个以上相关联地列出的项目的任意和所有可能组合。 0071 上述本发明实施例公开实施例序号仅仅为了描述, 不代表实施例的优劣。 0072 本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件 来完成, 也可以通过程序来指令相关的硬件完成, 程序可以存储于一种计算机可读存储介 质中, 上述提到的存储介质可以是只读存储器, 磁盘或光盘等。 0073 所属领域的普通技术人员应当理解: 以。

44、上任何实施例的讨论仅为示例性的, 并非 旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子; 在本发明实施例的思 路下, 以上实施例或者不同实施例中的技术特征之间也可以进行组合, 并存在如上的本发 明实施例的不同方面的许多其它变化, 为了简明它们没有在细节中提供。 因此, 凡在本发明 实施例的精神和原则之内, 所做的任何省略、 修改、 等同替换、 改进等, 均应包含在本发明实 施例的保护范围之内。 说明书 8/8 页 11 CN 111488990 A 11 图1 说明书附图 1/2 页 12 CN 111488990 A 12 图2 图3 说明书附图 2/2 页 13 CN 111488990 A 13 。

展开阅读全文
内容关键字: 基于 性能 感知 模型 裁剪 方法 装置 设备 介质
关于本文
本文标题:基于性能感知的模型裁剪方法、装置、设备和介质.pdf
链接地址:https://www.zhuanlichaxun.net/pdf/10562238.html
关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2017-2018 zhuanlichaxun.net网站版权所有
经营许可证编号:粤ICP备2021068784号-1