首先晒一下我看过的几个比较喜欢且巨有用的资料链接:
所有的结论都源自这篇伟大的论文,作者KaimingHe是我的偶像啊! 我们先来聊一聊: 14年,Google公司的GoogleNet[2]和牛津大学视觉几何组的VGGNet[3]在当年的ILSVRC中再一次各自使用深度卷积神经网络取得了优异的成绩,并在分类错误率上优于AlexNet数个百分点。两种结构相较于AlexNet,继续选择了增加网络复杂程度的策略来增强网络的特征表示能力。 15年,微软亚洲研究院的何凯明等人使用残差网络ResNet[4]参加了当年的ILSVRC,在图像分类、目标检测等任务中的表现大幅超越前一年的比赛的性能水准,并最终取得冠军。残差网络的明显特征是有着相当深的深度,从32层到152层,其深度远远超过了之前提出的深度网络结构,而后又针对小数据设计了1001层的网络结构。同一时刻,他们在另一项图像识别挑战赛MS COCO (MicrosoftCommon Objects in Context challenges,常见物体图像识别)中同样成功登顶,在图像检测和图像分割项目上击败了来自学界、企业和研究机构的众多参赛者。残差网络ResNet的深度惊人,极其深的深度使该网络拥有极强大的表达能力。秒懂!何凯明的深度残差网络PPT是这样的|ICML2016 tutorial
ResNet何凯明深度残差网络从100层到1001层(89PPT)
Deep Residual Network 深度残差网络
残差resnet网络原理详解
Resnet影响了2016年DL在学术界和工业界的发展方向。
该研究团队使用了一个“残差学习”原则来指导神经网络结构的设计。“残差学习”最重要的突破在于重构了学习
的过程,并重新定向了深层神经网络中的信息流,很好地解决了此前深层神经网络层级与准确度之间的矛盾。
下面是这个resnet的网络结构,大家先睹为快。传统的网络我们的解决方法是:go Deeper
and deeper
and how???这(staking)样(layers)吗?
NONONO~
未完待续~