典型文献
面向AIoT芯片的OCR模型压缩方案研究
文献摘要:
基于深度学习的OCR模型通常由CNN和RNN/LSTM构成,模型计算量大、权重参数多,导致在边缘设备上推理需要大量的计算资源才有可能达到性能要求.CPU和GPU这样的通用处理器无法同时满足处理速度和功耗要求,并且成本非常高.随着深度学习的普及,神经处理单元NPU在许多嵌入式和边缘设备中变得普遍,它具有高吞吐量的计算能力来处理神经网络所涉及的矩阵运算.以基于CRNN的OCR模型为例,面向AIoT芯片给出一个解决方案,通过剪枝和量化两种压缩算法降低网络参数冗余度,减少计算开销但仍能得到一个准确性和鲁棒性高的压缩模型,使得模型能够部署在NPU上.实验结果表明:对剪枝微调后的模型进行参数量化,稀疏度为78%量化后的模型精度降低不超过3%,模型大小从15.87 MB压缩为3.13 MB,将压缩后的模型部署到NPU端,与在CPU和GPU上的实现相比,NPU在延迟上分别实现了 28.87倍和6.1倍的加速.
文献关键词:
AIoT;OCR识别;模型压缩;参数量化;网络剪枝
中图分类号:
作者姓名:
甘芷莹;许达文
作者机构:
合肥工业大学电子科学与应用物理学院,安徽合肥23009
文献出处:
引用格式:
[1]甘芷莹;许达文-.面向AIoT芯片的OCR模型压缩方案研究)[J].微电子学与计算机,2022(11):110-117
A类:
B类:
AIoT,OCR,模型压缩,方案研究,计算量,边缘设备,计算资源,性能要求,CPU,GPU,通用处理器,处理速度,功耗,处理单元,NPU,高吞吐量,计算能力,矩阵运算,CRNN,压缩算法,网络参数,冗余度,少计,计算开销,压缩模型,微调,参数量化,稀疏度,模型精度,MB,模型部署,网络剪枝
AB值:
0.390458
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。