登录

  • 登录
  • 忘记密码?点击找回

注册

  • 获取手机验证码 60
  • 注册

找回密码

  • 获取手机验证码60
  • 找回
毕业论文网 > 文献综述 > 机械机电类 > 工业工程 > 正文

卷积神经网络在产品缺陷识别中的应用文献综述

 2020-04-15 15:28:44  

1.目的及意义

前几年,深度学习在解决诸如图像目标识别、语音识别和自然语言处理等很多方面都表现出色。在各种类型的神经网络当中,卷积神经网络的研究最为深入。早期由于缺乏训练数据和计算能力,要在不产生过拟合的情况下训练出高性能卷积神经网络是很困难的。ImageNet这样的大规模标记数据的出现和GPU计算性能的快速提高,使得对卷积神经网络的研究迅速井喷。

20世纪 90年代,LeCun等人发表论文,确立了CNN的现代结构,后来又对其进行完善。然而,由于当时缺乏大规模训练数据,计算机的计算能力也跟不上,LeNet-5对于复杂问题的处理结果并不理想。之后,人们设计了很多方法,想要克服难以深度训练CNN的困难。其中,最著名的是Krizhevsky等人提出了一个经典的CNN结构,并在图像识别任务上取得了重大突破。从结构看,CNN发展的一个方向就是层数变得更多,通过增加深度,网络便能够利用增加的非线性得出目标函数的近似结构,同时得出更好的特性表征。但是,这样做同时也增加了网络的整体复杂程度,使网络变得难以优化,很容易过拟合。研究人员提出了很多方法来解决这一问题。

三大改进型CNN:

ZFNet对AlexNet的改进首先在第一层的卷积核尺寸从11x11降为7x7,同时将卷积时的步长从4降至2。这样使中间的卷积层扩张从而可以捕捉到更多的信息。

VGGNet 将网络的深度扩展到了19层,并且在每个卷积层使用了3x3这种小尺寸的卷积核。结果证明深度对网络性能有着重要影响。

GoogleNet 同时增加了网络的宽度与深度,并且相比于更窄更浅的网络,其在没有明显增多的计算量的情况下使网络性能明显增强。

池化层改进:

池化层是CNN的重要组成部分,通过减少卷积层之间的连接,降低运算复杂程度。以下是常用的几种循环方法:

1)Lp池化:Lp池化是建立在复杂细胞运行机制的基础上,受生物启发而来

2)混合池化:受随机Dropout和DropConnect , Yu et al.启发而来

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

企业微信

Copyright © 2010-2022 毕业论文网 站点地图