如需要完整文档点击下方 "点击下载文档" 按钮
针对深度卷积神经网络中经典的 AlexNet 网络模型中激活函数 ReLU 在网络模型训练时易产生神经元“死亡” 和均值偏移的问题进行研究以及改进,通过结合反正切函数和对数函数的优势,在传统激活函数 ReLU 基础上提出了一种新的激活函数 sArcReLU,并在后续训练过程中进一步调参。 并将文中改进后的激活函数 sArcReLU 用于 AlexNet 网络模型训练,将使用新激活函数训练的深度卷积神经网络模型应用于公开数据集进行分类实验以验证其性能。 实验结果表明:利用 sArcReLU 激活函数训练的深度卷积神经网络比利用 ReLU 以及 ArcReLU 训练的网络模型在分类精度上分别提升了1.7% 和 2.4% ,证明了改进方式经过大量数据充分微调的深度卷积神经网络可有效地提高图像分类精度,该方法同时也提升了深度卷积神经网络的实际应用价值。
如需要完整文档点击下方 "点击下载文档" 按钮
《深度卷积神经网络中激活函数的研究》
将 完整文档 下载到本地,方便收藏和查阅
文件号:061321
点击下载文档