卷积核归一化

时间:2023-07-17 09:38:33
作者:王 迪,许 勇,李宏亮,郝子宇
关键字:卷积核归一化,批量归一化,内部协方差位移,卷积神经网络,深度学习
DOI:10.3969/j.issn.1673-629X.2019.12.005
查看次数:364

如需要完整文档点击下方 "点击下载文档" 按钮

批量归一化已被证明是深度学习模型中不可或缺的一层,可以有效处理深度神经网络训练过程中的内部协方差位移问题。 但批量归一化算法的效果依赖于批的大小,当批较小时,批量归一化的效果较差。 此外,批量归一化也带来了额外的计算量,需要更多的存储空间。 为了解决这些问题,文中提出一种新的归一化算法――卷积核归一化,对权重的输出通道进行归一化,同样可以有效解决内部协方差位移问题。 卷积核归一化不依赖于批的大小,并且不需要计算输入的均值和方差,相比批量归一化减少了75%至81%的计算量。 实验证明,在批较小的时候,卷积核归一化训练收敛速度较快且准确率较高,比批量归一化高 0.9%至 12%;在批较大的时候,卷积核归一化与批量归一化最高准确率误差不超过 1%。

如需要完整文档点击下方 "点击下载文档" 按钮

卷积核归一化
《卷积核归一化》
完整文档 下载到本地,方便收藏和查阅
文件号:062369
卷积核归一化
点击下载文档
卷积核归一化

点击下载 文件号:062369(点击复制) 公众号(点击复制)

x