典型文献
面向内存受限设备的新型卷积计算方法
文献摘要:
针对卷积神经网络预测过程中内存使用量大,难以部署在内存受限设备上的问题,提出一种面向内存受限设备的新型卷积计算方法.该方法对输入矩阵中部分数据进行卷积计算,并将计算结果存储在临时内存;然后,将临时内存中的计算结果复制到输入矩阵不再使用的内存并重复上述步骤,从而实现对输入矩阵的卷积计算;最后,对单个卷积计算和LeNet进行验证.实验结果表明,该方法计算速度较直接卷积方法更快,且相比im2col、MEC和直接卷积方法,单个卷积计算内存平均使用量分别下降89.29%、82.60%和57.15%,LeNet内存使用量分别下降89.90%、82.21%和28.07%,有效降低了卷积神经网络的内存使用量,有助于在内存受限设备上部署使用.
文献关键词:
深度学习;卷积计算;内存优化;数据复用;边缘设备
中图分类号:
作者姓名:
孙雁飞;王子牛;孙莹;亓晋;董振江
作者机构:
南京邮电大学物联网学院,江苏南京 210003;南京邮电大学江苏省高性能计算与智能处理工程研究中心,江苏南京 210023;南京邮电大学 自动化学院、人工智能学院,江苏南京 210023;南京邮电大学计算机学院,江苏南京 210023
文献出处:
引用格式:
[1]孙雁飞;王子牛;孙莹;亓晋;董振江-.面向内存受限设备的新型卷积计算方法)[J].南京邮电大学学报(自然科学版),2022(05):54-61
A类:
im2col
B类:
卷积计算,神经网络预测,行卷,复制到,LeNet,计算速度,MEC,别下,内存优化,数据复用,边缘设备
AB值:
0.224422
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。