典型文献
二进制张量分解法简化神经网络推理计算
文献摘要:
针对现有的简化神经网络推理计算方法面临模型精度下滑及重训练带来的额外开销问题,本文提出一种在比特级减少乘积累加运算(MAC)的乘加操作数的二进制张量分解法(IBTF).该方法利用张量分解消除多个卷积核之间由于权值比特位重复导致的计算重复,并保持计算结果不变,即无需重训练.在比特级简化模型计算的IBTF算法与量化、稀疏等数据级简化方法正交,即可以协同使用,从而进一步减少MAC计算量.实验结果表明,在多个主流神经网络中,相较于量化与稀疏后的模型,IBTF进一步使计算量减少了3.32倍,并且IBTF在不同卷积核大小、不同权值位宽及不同稀疏率的卷积运算中都发挥了显著的效果.
文献关键词:
神经网络;二进制张量分解(IBTF);乘积累加运算(MAC)
中图分类号:
作者姓名:
郝一帆;杜子东;支天
作者机构:
中国科学院计算技术研究所智能处理器研究中心 北京100190;中国科学院大学 北京100049
文献出处:
引用格式:
[1]郝一帆;杜子东;支天-.二进制张量分解法简化神经网络推理计算)[J].高技术通讯,2022(07):687-695
A类:
IBTF
B类:
二进制,张量分解,分解法,模型精度,开销,比特,特级,乘积,累加,MAC,操作数,法利,卷积核,权值,简化模型,简化方法,协同使用,计算量,卷积运算
AB值:
0.25658
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。