[go: up one dir, main page]

CN109086819B - caffemodel模型压缩方法、系统、设备及介质 - Google Patents

caffemodel模型压缩方法、系统、设备及介质 Download PDF

Info

Publication number
CN109086819B
CN109086819B CN201810836366.0A CN201810836366A CN109086819B CN 109086819 B CN109086819 B CN 109086819B CN 201810836366 A CN201810836366 A CN 201810836366A CN 109086819 B CN109086819 B CN 109086819B
Authority
CN
China
Prior art keywords
weight matrix
model
layer
matrix
caffedel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810836366.0A
Other languages
English (en)
Other versions
CN109086819A (zh
Inventor
罗壮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Original Assignee
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Century Trading Co Ltd, Beijing Jingdong Shangke Information Technology Co Ltd filed Critical Beijing Jingdong Century Trading Co Ltd
Priority to CN201810836366.0A priority Critical patent/CN109086819B/zh
Publication of CN109086819A publication Critical patent/CN109086819A/zh
Application granted granted Critical
Publication of CN109086819B publication Critical patent/CN109086819B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种caffemodel模型压缩方法、系统、设备及介质,其中caffemodel模型压缩方法包括:利用caffe框架导入一训练后的caffemodel模型;获取第一权重矩阵;生成掩码矩阵;利用训练集训练caffemodel模型,迭代后,fc6层和/或fc7层的权重矩阵为第二权重矩阵;将第二权重矩阵中的每项元素与掩码矩阵中对应的每项元素相乘生成第三权重矩阵,将fc6层和/或fc7层的权重矩阵设置为第三权重矩阵;迭代结束,将第三权重矩阵转化为对应的csr稀疏矩阵格式生成压缩权重矩阵。本发明的方法可达到降低caffemodel模型的存储空间的效果。

Description

caffemodel模型压缩方法、系统、设备及介质
技术领域
本发明涉及算法领域,具体涉及一种caffemodel模型压缩方法、系统、设备及介质。
背景技术
Pvanet-faster-rcnn(一种物体检测模型)是一种基于卷积神经网络的对图像中物体进行检测的算法模型。在caffe(一种深度学习框架)框架下训练标准的Pvanet-faster-rcnn模型得到的caffemodel(深度学习框架模型)模型的尺寸是369MB(兆,计算机中的一种存储单位),该模型由若干层构成,其中fc6(全连接层第6层)层和fc7层(全连接层第7层)的权重参数合计约占352MB。
当用GPU(图形处理器)卡计算该模型时,369MB大小的caffemodel模型将驻留在GPU显存中,caffemodel模型中的参数量较大,占用GPU显存资源较多,无法在显存资源紧张的GPU显卡上运行,导致GPU运算性能下降。
发明内容
本发明要解决的技术问题是为了克服现有技术中caffemodel模型在运算时占用GPU显存,导致GPU运算性能下降的缺陷,提供一种caffemodel模型压缩方法、系统、设备及介质。
本发明是通过下述技术方案来解决上述技术问题:
一种caffemodel模型压缩方法,所述caffemodel模型压缩方法包括:
利用caffe框架导入一训练后的caffemodel模型,所述caffemodel模型包括fc6层和/或fc7层,所述fc6层和/或fc7层的权重矩阵为第一权重矩阵;
获取所述第一权重矩阵;
将所述第一权重矩阵中的绝对值大于和等于预设阈值的元素设置为1,并将所述第一权重矩阵中的绝对值小于所述预设阈值的元素设置为0后,生成掩码矩阵,所述预设阈值为一正值;
利用训练集训练所述caffemodel模型,迭代后,所述fc6层和/或fc7层的权重矩阵为第二权重矩阵;
将所述第二权重矩阵中的每项元素与所述掩码矩阵中对应的每项元素相乘生成第三权重矩阵,将所述fc6层和/或fc7层的权重矩阵设置为所述第三权重矩阵;
返回所述利用训练集训练所述caffemodel模型,迭代后,所述fc6层和/或fc7层的权重矩阵为第二权重矩阵的步骤;
直至达到预设迭代结束条件,则迭代结束,将所述第三权重矩阵转化为对应的csr(一种稀疏矩阵压缩存储格式)稀疏矩阵格式生成压缩权重矩阵,将所述caffemodel模型的权重矩阵设置为所述压缩权重矩阵。
较佳地,所述将所述caffemodel模型的权重矩阵设置为所述压缩权重矩阵的步骤还包括:
迭代结束后,获得所述caffemodel模型的训练精度为迭代训练精度;
迭代前的所述caffemodel模型的训练精度为原始训练精度,计算所述迭代训练精度相比所述原始训练精度的下降比例,若所述下降比例高于预设精度比例,则降低所述预设阈值,返回生成所述掩码矩阵的步骤;
所述将所述第三权重矩阵转化为对应的稀疏矩阵格式生成所述压缩权重矩阵的步骤包括:
直至所述下降比例低于所述预设精度比例,将所述第三权重矩阵转化为对应的稀疏矩阵格式生成所述压缩权重矩阵。
较佳地,所述预设精度比例的范围为0.1%-0.5%。
较佳地,所述将所述caffemodel模型的权重矩阵设置为所述压缩权重矩阵的步骤之后还括:
利用所述fc6层和/或fc7层接收输入数据,并将所述输入数据与所述压缩权重矩阵作相乘运算得到输出数据。
一种caffemodel模型压缩系统,所述caffemodel模型压缩系统包括导入模块、掩码生成模块、迭代模块、掩码模块、返回模块和转化模块;
所述导入模块用于利用caffe框架导入一训练后的caffemodel模型,所述caffemodel模型包括fc6层和/或fc7层,所述fc6层和/或fc7层的权重矩阵为第一权重矩阵;
所述掩码生成模块用于获取所述第一权重矩阵,并将所述第一权重矩阵中的绝对值大于和等于预设阈值的元素设置为1,并将所述第一权重矩阵中的绝对值小于所述预设阈值的元素设置为0后,生成掩码矩阵,所述预设阈值为一正值;
所述迭代模块用于利用训练集训练所述caffemodel模型,迭代后,所述fc6层和/或fc7层的权重矩阵为第二权重矩阵;
所述掩码模块用于将所述第二权重矩阵中的每项元素与所述掩码矩阵中对应的每项元素相乘生成第三权重矩阵,将所述fc6层和/或fc7层的权重矩阵设置为所述第三权重矩阵;
所述返回模块用于返回所述利用训练集训练所述caffemodel模型,迭代后,所述fc6层和/或fc7层的权重矩阵为第二权重矩阵的步骤;
所述转化模块用于直至达到预设迭代结束条件,则迭代结束,将所述第三权重矩阵转化为对应的csr稀疏矩阵格式生成压缩权重矩阵,将所述caffemodel模型的权重矩阵设置为所述压缩权重矩阵。
较佳地,所述caffemodel模型压缩系统还包括精度比较模块,所述精度比较模块用于迭代结束后,以及获得所述caffemodel模型的训练精度为迭代训练精度,迭代前的所述caffemodel模型的训练精度为原始训练精度;
所述精度模块还用于计算所述迭代训练精度相比所述原始训练精度的下降比例,若所述下降比例高于预设精度比例,则降低所述预设阈值,调用所述掩码矩阵生成模块;
所述转化模块还用于直至所述下降比例低于所述预设精度比例,将所述第三权重矩阵转化为对应的稀疏矩阵格式生成所述压缩权重矩阵。
较佳地,所述预设精度比例的范围为0.1%-0.5%。
较佳地,所述caffemodel模型压缩系统还括运算模块,所述运算模块用于利用所述fc6层和/或fc7层接收输入数据,并将所述输入数据与所述压缩权重矩阵作相乘运算得到输出数据。
一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的caffemodel模型压缩方法。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的caffemodel模型压缩方法的步骤。
本发明的积极进步效果在于:
本发明通过将caffemodel模型的fc6层和/或fc7层的权重矩阵的各元素与预设阈值比较后生成只包括0和1元素的掩码矩阵,继续训练caffemodel模型,将每次迭代后生成的第二权重矩阵的各元素与掩码矩阵的对应位置的每项元素相乘,最终迭代结束后,得到的caffemodel模型的权重矩阵包括一些无效元素0,并将此权重矩阵转化为csr稀疏矩阵格式,从而达到降低caffemodel模型的存储空间的效果。
附图说明
图1为本发明的实施例1的caffemodel模型压缩方法的流程图。
图2为本发明的实施例2的caffemodel模型压缩方法的流程图。
图3为本发明的实施例3的caffemodel模型压缩系统的模块示意图。
图4为本发明的实施例4的caffemodel模型压缩系统的模块示意图。
图5为本发明的实施例5的电子设备的结构示意图。
具体实施方式
下面通过实施例的方式进一步说明本发明,但并不因此将本发明限制在所述的实施例范围之中。
caffe是一种开源深度学习框架,本实施例基于caffe深度学习框架实现,可以对Pvanet-faster-rcnn训练后得到的caffemodel模型文件进行压缩。caffemodel模型中fc6层的weights(权重)参数和fc7层的weights参数均以稠密矩阵的形式存在。在实施之前,需要准备的文件包括:Pvanet-faster-rcnn训练后的待压缩的caffemodel模型,训练该caffemodel模型时的训练集。
实施例1
本实施例提供一种caffemodel模型压缩方法,压缩过程中可对caffemodel模型的fc6层和fc7层进行相同的压缩处理,也可单独分别对fc6层和fc7层进行压缩处理。
如图1所示,caffemodel模型压缩方法包括:
步骤101:利用caffe框架导入一训练后的caffemodel模型,caffemodel模型包括fc6层和/或fc7层,fc6层和/或fc7层的权重矩阵为第一权重矩阵。
步骤102:获取第一权重矩阵。
步骤103:将第一权重矩阵中的绝对值大于和等于预设阈值的元素设置为1,并将第一权重矩阵中的绝对值小于预设阈值的元素设置为0后,生成掩码矩阵,预设阈值为一正值。
本实施例中,fc6层与fc7层选用的预设阈值根据实际情况可分别选择不同的值。
步骤104:利用训练集训练caffemodel模型,迭代后,fc6层和/或fc7层的权重矩阵为第二权重矩阵。
步骤105:将第二权重矩阵中的每项元素与掩码矩阵中对应的每项元素相乘生成第三权重矩阵,将fc6层和/或fc7层的权重矩阵设置为第三权重矩阵。
步骤106:判断是否满足预设迭代结束条件,若是,则迭代结束,执行步骤107,若否,则返回步骤104。
直至达到预设迭代结束条件,则迭代结束。预设迭代结束条件可以与caffe框架导入的训练后的caffemodel模型训练时的迭代结束条件相同。
步骤107:将第三权重矩阵转化为对应的csr稀疏矩阵格式生成压缩权重矩阵,将caffemodel模型的权重矩阵设置为压缩权重矩阵。
从而使得caffemodel模型的占用空间大大减小,可使得caffemodel模型在进行后续运算时占用GPU显存空间减少,从而提高GPU运算性能。
实施例2
本实施例提供一种caffemodel模型压缩方法,本实施例与实施例1相比,其区别在于,caffemodel模型压缩方法在步骤107之前还包括:
步骤107-1:迭代结束后,获得caffemodel模型的训练精度为迭代训练精度,迭代前的caffemodel模型的训练精度为原始训练精度。
步骤107-2:计算迭代训练精度相比原始训练精度的下降比例。
步骤107-3:判断下降比例是否高于预设精度比例,若是,则执行步骤107-4,若否,执行步骤107。预设精度比例的范围可设置为0.1%-0.5%。
步骤107-4:降低预设阈值,返回步骤103。
步骤107包括:
直至下降比例低于预设精度比例,将第三权重矩阵转化为对应的稀疏矩阵格式生成压缩权重矩阵。
本实施例中的预设精度比例选择为0.5%。
在实际应用中,用该方法对一个可以检测20种物体的Pvanet-faster-rcnn的caffemodel模型进行压缩,caffemodel模型的初始大小为369MB,应用此方法将caffemodel模型压缩后为37MB时,模型精度下降比例仅为0.36%。获得了与caffemodel初始模型的原始训练精度相当,但占用空间更小的新模型。
优选地,将caffemodel模型的权重矩阵设置为压缩权重矩阵的步骤之后还括:
利用fc6层和/或fc7层接收输入数据,并将输入数据与压缩权重矩阵作相乘运算得到输出数据。
当模型进行前向计算时,fc6层的输入数据与fc6层的权重矩阵进行相乘产生该层输出数据,fc7层的输入数据与fc7层的权重矩阵进行相乘产生该层输出数据。相比之前,压缩后的caffemodel模型的占用空间大小,使得在模型前向计算时,模型占用的GPU显存资源空间减少,大大提高了GPU的运行性能。
实施例3
本实施例提供一种caffemodel模型压缩系统,如图3所示,caffemodel模型压缩系统包括导入模块201、掩码生成模块202、迭代模块203、掩码模块204、返回模块205和转化模块206。
导入模块201用于利用caffe框架导入一训练后的caffemodel模型,caffemodel模型包括fc6层和/或fc7层,fc6层和/或fc7层的权重矩阵为第一权重矩阵。
掩码生成模块202用于获取第一权重矩阵,并将第一权重矩阵中的绝对值大于和等于预设阈值的元素设置为1,并将第一权重矩阵中的绝对值小于预设阈值的元素设置为0后,生成掩码矩阵,预设阈值为一正值。
本实施例中,fc6层与fc7层选用的预设阈值根据实际情况可分别选择不同的值。
迭代模块203用于利用训练集训练caffemodel模型,迭代后,fc6层和/或fc7层的权重矩阵为第二权重矩阵。
掩码模块204用于将第二权重矩阵中的每项元素与掩码矩阵中对应的每项元素相乘生成第三权重矩阵,将fc6层和/或fc7层的权重矩阵设置为第三权重矩阵。
返回模块205用于调用迭代模块203。
转化模块206用于当直至达到预设迭代结束条件,迭代结束后,将第三权重矩阵转化为对应的csr稀疏矩阵格式生成压缩权重矩阵,将caffemodel模型的权重矩阵设置为压缩权重矩阵。预设迭代结束条件可以与caffe框架导入的训练后的caffemodel模型训练时的迭代结束条件相同。
从而使得caffemodel模型的占用空间大大减小,可使得caffemodel模型在进行后续运算时占用GPU显存空间减少,从而提高GPU运算性能。
实施例4
本实施例提供一种caffemodel模型压缩系统,本实施例与实施例3相比,区别在于,如图4所示,caffemodel模型压缩系统还包括精度比较模块207,精度比较模块207用于迭代结束后,以及获得caffemodel模型的训练精度为迭代训练精度,迭代前的caffemodel模型的训练精度为原始训练精度;
精度比较模块207还用于计算迭代训练精度相比原始训练精度的下降比例,若下降比例高于预设精度比例,则降低预设阈值,调用掩码矩阵生成模块;预设精度比例的范围可设置为0.1%-0.5%。
转化模块206还用于直至下降比例低于预设精度比例,将第三权重矩阵转化为对应的稀疏矩阵格式生成压缩权重矩阵。
本实施例中的预设精度比例选择为0.5%。
在实际应用中,用该方法对一个可以检测20种物体的Pvanet-faster-rcnn的caffemodel模型进行压缩,caffemodel模型的初始大小为369MB,应用此方法将caffemodel模型压缩后为37MB时,模型精度下降比例仅为0.36%。获得了与caffemodel初始模型的原始训练精度相当,但占用空间更小的新模型。
优选地,caffemodel模型压缩系统还括运算模块,运算模块用于利用fc6层和/或fc7层接收输入数据,并将输入数据与压缩权重矩阵作相乘运算得到输出数据。
当模型进行前向计算时,fc6层的输入数据与fc6层的权重矩阵进行相乘产生该层输出数据,fc7层的输入数据与fc7层的权重矩阵进行相乘产生该层输出数据。相比之前,压缩后的caffemodel模型的占用空间大小,使得在模型前向计算时,模型占用的GPU显存资源空间减少,大大提高了GPU的运行性能。
实施例5
图5为本实施例提供的一种电子设备的结构示意图。所述电子设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现实施例1的caffemodel模型压缩方法。图5显示的电子设备30仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,电子设备30可以以通用计算设备的形式表现,例如其可以为服务器设备。电子设备30的组件可以包括但不限于:上述至少一个处理器31、上述至少一个存储器32、连接不同系统组件(包括存储器32和处理器31)的总线33。
总线33包括数据总线、地址总线和控制总线。
存储器32可以包括易失性存储器,例如随机存取存储器(RAM)321和/或高速缓存存储器322,还可以进一步包括只读存储器(ROM)323。
存储器32还可以包括具有一组(至少一个)程序模块324的程序/实用工具325,这样的程序模块324包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
处理器31通过运行存储在存储器32中的计算机程序,从而执行各种功能应用以及数据处理,例如本发明实施例1所提供的caffemodel模型压缩方法。
电子设备30也可以与一个或多个外部设备34(例如键盘、指向设备等)通信。这种通信可以通过输入/输出(I/O)接口35进行。并且,模型生成的设备30还可以通过网络适配器36与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器36通过总线33与模型生成的设备30的其它模块通信。应当明白,尽管图中未示出,可以结合模型生成的设备30使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID(磁盘阵列)系统、磁带驱动器以及数据备份存储系统等。
应当注意,尽管在上文详细描述中提及了电子设备的若干单元/模块或子单元/模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。
实施例6
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现实施例1所提供的caffemodel模型压缩方法。
其中,可读存储介质可以采用的更具体可以包括但不限于:便携式盘、硬盘、随机存取存储器、只读存储器、可擦拭可编程只读存储器、光存储器件、磁存储器件或上述的任意合适的组合。
在可能的实施方式中,本发明还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行实现实施例1所述的caffemodel模型压缩方法中的步骤。
其中,可以以一种或多种程序设计语言的任意组合来编写用于执行本发明的程序代码,所述程序代码可以完全地在用户设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户设备上部分在远程设备上执行或完全在远程设备上执行。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。

Claims (10)

1.一种caffemodel模型压缩方法,其特征在于,所述caffemodel模型压缩方法包括:
利用caffe框架导入一训练后的caffemodel模型,所述caffemodel模型包括fc6层和/或fc7层,所述fc6层和/或fc7层的权重矩阵为第一权重矩阵;
获取所述第一权重矩阵;
将所述第一权重矩阵中的绝对值大于和等于预设阈值的元素设置为1,并将所述第一权重矩阵中的绝对值小于所述预设阈值的元素设置为0后,生成掩码矩阵,所述预设阈值为一正值;
利用对图像中物体进行检测的训练集训练所述caffemodel模型,迭代后,所述fc6层和/或fc7层的权重矩阵为第二权重矩阵;
将所述第二权重矩阵中的每项元素与所述掩码矩阵中对应的每项元素相乘生成第三权重矩阵,将所述fc6层和/或fc7层的权重矩阵设置为所述第三权重矩阵;
返回所述利用对图像中物体进行检测的训练集训练所述caffemodel模型,迭代后,所述fc6层和/或fc7层的权重矩阵为第二权重矩阵的步骤;
直至达到预设迭代结束条件,则迭代结束,将所述第三权重矩阵转化为对应的csr稀疏矩阵格式生成压缩权重矩阵,将所述caffemodel模型的权重矩阵设置为所述压缩权重矩阵;
所述caffemodel模型运行在GPU上。
2.如权利要求1所述的caffemodel模型压缩方法,其特征在于,所述将所述caffemodel模型的权重矩阵设置为所述压缩权重矩阵的步骤还包括:
迭代结束后,获得所述caffemodel模型的训练精度为迭代训练精度;
迭代前的所述caffemodel模型的训练精度为原始训练精度,计算所述迭代训练精度相比所述原始训练精度的下降比例,若所述下降比例高于预设精度比例,则降低所述预设阈值,返回生成所述掩码矩阵的步骤;
所述将所述第三权重矩阵转化为对应的稀疏矩阵格式生成所述压缩权重矩阵的步骤包括:
直至所述下降比例低于所述预设精度比例,将所述第三权重矩阵转化为对应的稀疏矩阵格式生成所述压缩权重矩阵。
3.如权利要求2所述的caffemodel模型压缩方法,其特征在于,所述预设精度比例的范围为0.1%-0.0.5%。
4.如权利要求1所述的caffemodel模型压缩方法,其特征在于,所述将所述caffemodel模型的权重矩阵设置为所述压缩权重矩阵的步骤之后还括:
利用所述fc6层和/或fc7层接收输入数据,并将所述输入数据与所述压缩权重矩阵作相乘运算得到输出数据。
5.一种caffemodel模型压缩系统,其特征在于,所述caffemodel模型压缩系统包括导入模块、掩码生成模块、迭代模块、掩码模块、返回模块和转化模块;
所述导入模块用于利用caffe框架导入一训练后的caffemodel模型,所述caffemodel模型包括fc6层和/或fc7层,所述fc6层和/或fc7层的权重矩阵为第一权重矩阵;
所述掩码生成模块用于获取所述第一权重矩阵,并将所述第一权重矩阵中的绝对值大于和等于预设阈值的元素设置为1,并将所述第一权重矩阵中的绝对值小于所述预设阈值的元素设置为0后,生成掩码矩阵,所述预设阈值为一正值;
所述迭代模块用于利用对图像中物体进行检测的训练集训练所述caffemodel模型,迭代后,所述fc6层和/或fc7层的权重矩阵为第二权重矩阵;
所述掩码模块用于将所述第二权重矩阵中的每项元素与所述掩码矩阵中对应的每项元素相乘生成第三权重矩阵,将所述fc6层和/或fc7层的权重矩阵设置为所述第三权重矩阵;
所述返回模块用于返回所述利用对图像中物体进行检测的训练集训练所述caffemodel模型,迭代后,所述fc6层和/或fc7层的权重矩阵为第二权重矩阵的步骤;
所述转化模块用于直至达到预设迭代结束条件,则迭代结束,将所述第三权重矩阵转化为对应的csr稀疏矩阵格式生成压缩权重矩阵,将所述caffemodel模型的权重矩阵设置为所述压缩权重矩阵;
所述caffemodel模型运行在GPU上。
6.如权利要求5所述的caffemodel模型压缩系统,其特征在于,所述caffemodel模型压缩系统还包括精度比较模块,所述精度比较模块用于迭代结束后,以及获得所述caffemodel模型的训练精度为迭代训练精度,迭代前的所述caffemodel模型的训练精度为原始训练精度;
所述精度模块还用于计算所述迭代训练精度相比所述原始训练精度的下降比例,若所述下降比例高于预设精度比例,则降低所述预设阈值,调用所述掩码矩阵生成模块;
所述转化模块还用于直至所述下降比例低于所述预设精度比例,将所述第三权重矩阵转化为对应的稀疏矩阵格式生成所述压缩权重矩阵。
7.如权利要求6所述的caffemodel模型压缩系统,其特征在于,所述预设精度比例的范围为0.1%-0.5%。
8.如权利要求5所述的caffemodel模型压缩系统,其特征在于,所述caffemodel模型压缩系统还括运算模块,所述运算模块用于利用所述fc6层和/或fc7层接收输入数据,并将所述输入数据与所述压缩权重矩阵作相乘运算得到输出数据。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-4中任一项所述的caffemodel模型压缩方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-4中任一项所述的caffemodel模型压缩方法的步骤。
CN201810836366.0A 2018-07-26 2018-07-26 caffemodel模型压缩方法、系统、设备及介质 Active CN109086819B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810836366.0A CN109086819B (zh) 2018-07-26 2018-07-26 caffemodel模型压缩方法、系统、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810836366.0A CN109086819B (zh) 2018-07-26 2018-07-26 caffemodel模型压缩方法、系统、设备及介质

Publications (2)

Publication Number Publication Date
CN109086819A CN109086819A (zh) 2018-12-25
CN109086819B true CN109086819B (zh) 2023-12-05

Family

ID=64830821

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810836366.0A Active CN109086819B (zh) 2018-07-26 2018-07-26 caffemodel模型压缩方法、系统、设备及介质

Country Status (1)

Country Link
CN (1) CN109086819B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109711367B (zh) * 2018-12-29 2020-03-06 中科寒武纪科技股份有限公司 运算方法、装置及相关产品
CN109740746B (zh) * 2018-12-29 2020-01-31 中科寒武纪科技股份有限公司 运算方法、装置及相关产品
CN113360188B (zh) * 2021-05-18 2023-10-31 中国石油大学(北京) 一种用于优化稀疏矩阵-向量乘的并行处理方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184369A (zh) * 2015-09-08 2015-12-23 杭州朗和科技有限公司 用于深度学习模型的矩阵压缩方法和装置
CN106503729A (zh) * 2016-09-29 2017-03-15 天津大学 一种基于顶层权值的图像卷积特征的生成方法
CA2990712A1 (en) * 2016-06-14 2017-12-21 The Governing Council Of The University Of Toronto Accelerator for deep neural networks
CN107610192A (zh) * 2017-09-30 2018-01-19 西安电子科技大学 基于深度学习的自适应观测压缩感知图像重构方法
CN108090498A (zh) * 2017-12-28 2018-05-29 广东工业大学 一种基于深度学习的纤维识别方法及装置
CN108229681A (zh) * 2017-12-28 2018-06-29 郑州云海信息技术有限公司 一种神经网络模型压缩方法、系统、装置及可读存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10984308B2 (en) * 2016-08-12 2021-04-20 Xilinx Technology Beijing Limited Compression method for deep neural networks with load balance

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184369A (zh) * 2015-09-08 2015-12-23 杭州朗和科技有限公司 用于深度学习模型的矩阵压缩方法和装置
CA2990712A1 (en) * 2016-06-14 2017-12-21 The Governing Council Of The University Of Toronto Accelerator for deep neural networks
CN106503729A (zh) * 2016-09-29 2017-03-15 天津大学 一种基于顶层权值的图像卷积特征的生成方法
CN107610192A (zh) * 2017-09-30 2018-01-19 西安电子科技大学 基于深度学习的自适应观测压缩感知图像重构方法
CN108090498A (zh) * 2017-12-28 2018-05-29 广东工业大学 一种基于深度学习的纤维识别方法及装置
CN108229681A (zh) * 2017-12-28 2018-06-29 郑州云海信息技术有限公司 一种神经网络模型压缩方法、系统、装置及可读存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
《Automated Parking Space Detection Using Convolutional Neural Networks》;Julien Nyambal等;《2017 Pattern Recognition Association of South Africa and Robotics and Mechatronics》;全文 *
Lazar Supic 等.《MPDCompress-Matrix Permutation Decomposition Algorithm for Deep Neural Network Compression》.《arXiv》.2018, *
Song Han等.《Deep Compression: Compressing Deep Neural Networks with Pruing,Trained Quantization and Huffman Coding》.《arXiv》.2016,全文. *

Also Published As

Publication number Publication date
CN109086819A (zh) 2018-12-25

Similar Documents

Publication Publication Date Title
CN111445418B (zh) 图像去雾处理方法、装置及计算机设备
CN110363279B (zh) 基于卷积神经网络模型的图像处理方法和装置
CN115861131B (zh) 基于图像生成视频、模型的训练方法、装置及电子设备
CN111539290A (zh) 视频动作识别方法、装置、电子设备及存储介质
US11651198B2 (en) Data processing method and apparatus for neural network
EP4044070A2 (en) Neural network processing unit, neural network processing method and device
CN109086819B (zh) caffemodel模型压缩方法、系统、设备及介质
JP7324891B2 (ja) バックボーンネットワーク生成方法、装置、電子機器、記憶媒体およびコンピュータプログラム
CN114207625A (zh) 用于性能优化的分布式深度学习的系统感知选择性量化
CN114429208A (zh) 基于残差结构剪枝的模型压缩方法、装置、设备及介质
CN110557633A (zh) 图像数据的压缩传输方法、系统和计算机可读存储介质
US20200242467A1 (en) Calculation method and calculation device for sparse neural network, electronic device, computer readable storage medium, and computer program product
CN112348176A (zh) 深度学习模型训练方法、装置、设备及存储介质
CN112488060A (zh) 目标检测方法、装置、设备、介质和程序产品
CN117351299B (zh) 图像生成及模型训练方法、装置、设备和存储介质
CN113610856A (zh) 训练图像分割模型和图像分割的方法和装置
CN113989152A (zh) 图像增强方法、装置、设备以及存储介质
CN110232338A (zh) 基于二值神经网络的轻量化Web AR识别方法及系统
CN117093557A (zh) 日志数据处理方法及装置、计算机可读存储介质
CN118823489B (zh) 基于多尺度注意力机制的图像分类方法、装置和设备
CN117114830A (zh) 一种应用于风险控制模型的参数优化方法及其相关设备
CN111314708B (zh) 一种图像数据压缩方法、装置、存储介质和电子设备
CN112580772B (zh) 卷积神经网络的压缩方法及装置
CN119496914B (zh) 基于注意力融合多尺度特征的解压缩点云质量增强方法
CN114819149B (zh) 基于变换神经网络的数据处理方法、装置和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant