全网唯一标准王
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210304705.7 (22)申请日 2022.03.22 (71)申请人 重庆大学 地址 400044 重庆市沙坪坝区沙正 街174号 (72)发明人 沈志熙 徐赞林  (74)专利代理 机构 重庆晟轩知识产权代理事务 所(普通合伙) 50238 专利代理师 王海凤 (51)Int.Cl. G06F 9/445(2018.01) G06F 9/50(2006.01) G06N 3/04(2006.01) G06N 3/08(2006.01) (54)发明名称 一种卷积神经网络的模型文件分层加载计 算方法 (57)摘要 本发明涉及一种卷积神经网络的模型文件 分层加载计算方法, S1将模型文件加载到嵌入式 设备的硬盘或SD卡等外部存储设备中, 设该模型 文件的大小为mw; S2将该嵌入式设备的内存大小 记为ma, 将该检测程序的最大运行内存记为mb, 则该嵌入式设备能够分配给模型文件存储的内 存大小mc为mc=(ma‑mb)×α; S3若mw<=mc,则直 接将模型文件一次性加载到嵌入式设备的内存 中, 转至S5; S4若mw>mc, 则模型文件需要分次加 载; S5进行算法模型的前向计算过程。 该方法运 用分步加载的思想对不同大小的模型文件结合 具体的嵌入式设备内存空间作分析计算, 从而保 证以最少的内存访问次数实现模型文件的分步 载入, 考虑到了实时性的需求, 突破了嵌入式设 备存储空间较小的限制。 权利要求书1页 说明书5页 附图1页 CN 114579207 A 2022.06.03 CN 114579207 A 1.一种卷积神经网络的模型文件分层加载计算方法, 其特 征在于: 包括如下步骤: S1、 将模型文件加载到嵌入式设备的硬盘或SD卡等外部存储设备中, 假设该模型文件 的大小为mw; S2、 将该嵌入式设备的内存大小记为ma, 将该检测程序的最大运行内存记为mb, 则该嵌 入式设备能够分配给模型文件存储的内存大小mc为mc=(ma‑mb)×α, α为余量因子, 通常根 据设备资源的计算 开销设置值 为0.7‑0.9之间; S3、 若mw<=mc,则直接将模型文件一次性加载到嵌入式设备的内存中, 转至S5; S4、 若mw>mc, 则模型文件需要分次加载; S5、 进行卷积神经网络的前向计算过程。 2.如权利要求1所述的卷积神经网络的模型文件分层加载计算方法, 其特征在于: 所述 S4中分次加载的步骤具体如下: 记模型文件计划 加载次数为 n, 则前n‑1次计划单次加载的模型文件大小为 则 则第n次计划 加载的模型文件大小为 为了保证每一次加载的模型文件都是N个层的全部参数, 记已加载模型文件大小为mo, mo初始值为0; 记L为模型的第L个卷积层, L初始值 为1; 设第n次(n初始值为1)实际加载 的模型文件大小为mt, mt初始值为第L个卷积层参数所 占内存大小; 记mL为第L个卷积层参数 所占内存大小; 第n次实际加载模型文件的流 程如下: ①若 且L<No, 则L=L+1, 更新mt=mt+mL, 重复第①步, 其中No表示模型 卷积层数; ②若 则L=L‑1, 更新mt=mt‑mL; ③若 则加载模型文件的[mo,mo+mt]部分, 更新mo=mo+mt; ④若mo<mw, 更新L=L+1, 转到第 ①步, 即开始第n+1次实际加载模型文件的流 程; ⑤若mo=mw, 则整个模型文件已加载完成, 结束。 3.如权利要求1或2所述的卷积神经网络的模型文件分层加载计算方法, 其特征在于: 所述S5进行卷积神经网络的前向计算过程具体步骤如下: 若上一步为S4, 则根据已载入内 存中的模型文件, 逐层开始整个卷积神经网络的前向计算过程, 当内存中的模型文件都参 与计算之后, 转至S4进行 下一次加载; 若上一 步为S3, 则直接进行 前向计算过程 直至结束。权 利 要 求 书 1/1 页 2 CN 114579207 A 2一种卷积神经 网络的模型文件分层加载计算方 法 技术领域 [0001]本发明涉及计算机视觉领域, 尤其涉及一种卷积神经网络的模型文件分层加载计 算方法。 背景技术 [0002]随着深度学习在目标识别和检测领域的不断发展, 继AlexNet以来, VGG、 GoogleNet、 ResNet等网络向网络层数更深地方 向发展, 以寻求更好的检测精度。 相关研究 人员运用增加卷积层数, 增加卷积核的个数等方法来提取检测目标的深层次特征; 尽管深 度网络模型在许多问题中表现优越, 但实际应用时受到了时间上和空间上 的制约, 大而深 的网络模型运算量巨大, 即使借助于图形处理器, 也难以嵌入开发在计算资源和存储资源 有限的设备上, 时间上也难以满足日常生活中的许多场景需求; 而高性能的计算机生产及 维护成本较高, 不适合大量普及推广。 所以, 在目前许多应用中, 尤其是在移动端与嵌入式 系统的应用部署, 如自动驾驶、 疲劳检测、 机器人等受 限于集成设备与处理速度, 无法加载 和计算从几十兆到上百兆不等神经网络模型文件, 模型压缩研究应运而生, 轻量化的深度 神经网络不断被提出, 然而一味的对模型进行压缩又会导致检测精度的损失, 单纯 的压缩 无疑是不可 取的。 [0003]对于深度神经网络而言, 其模型的大量参数都集中在卷积层中, 如何避免深度神 经网络的大量模型参数和嵌入式设备有限的计算存储能力之间存在的冲突, 使其在一定程 度上突破深度网络模型的应用局限, 是深度神经网络在嵌入式终端开发应用面临的首要问 题。 发明内容 [0004]针对现有技术存在的上述问题, 本发明要解决的技术问题是: 如何解决深度神经 网络难以嵌入开发在计算资源和存 储资源有限的设备 上的技术问题。 [0005]为解决上述技术问题, 本发明采用如下技术方案: 一种卷积神经网络 的模型文件 分层加载计算方法, 包括如下步骤: [0006]S1、 将模型文件加载到嵌入式设备的硬盘或SD卡等外部存储设备中, 假设该模型 文件的大小为mw; [0007]S2、 将该嵌入式设备的内存大小记为ma, 将该检测程序的最大运行内存记为mb, 则 该嵌入式设备能够分配给模型文件存储的内存大小mc为mc=(ma‑mb)×α, α 为余量因子, 设 为0.9; [0008]S3、 若mw<=mc,则直接将模型文件一次性加载到嵌入式设备的内存中, 转至S5; [0009]S4、 若mw>mc, 则模型文件需要分次加载; [0010]S5、 进行卷积神经网络的前向计算过程。 [0011]作为改进, 所述S4中分次加载的步骤具体如下:说 明 书 1/5 页 3 CN 114579207 A 3

.PDF文档 专利 一种卷积神经网络的模型文件分层加载计算方法

文档预览
中文文档 8 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共8页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种卷积神经网络的模型文件分层加载计算方法 第 1 页 专利 一种卷积神经网络的模型文件分层加载计算方法 第 2 页 专利 一种卷积神经网络的模型文件分层加载计算方法 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-17 23:58:56上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。