0%

Deep Residual Learning for Image Recognition

结论

  • 现状:深的神经网络很难训练,本文提出了一种残差结构可以构建152层深的网络
  • 训练的“退化”现象:层数变深了,误差反而更高

ec6a0486522e130df0f0f87e3a2fc7eb.png

  • 解决方案:加shortcut,优势是没有引入额外的参数

d5b03ee9f385bcc65fb4d5a3bd6eb388.png

  • 以残差块为基础设计了多个层数的网络,至于为什么这么设计作者没说

8e8f0bf293193923b52d72175a083ccb.png

  • 有残差的网络不仅效果好,而且收敛快

21f079413d28c9e301e96bbc06bc2c52.png

  • bottleneck机制:降维卷积计算

15675a91466cb859c32b083372288169.png