Deep Residual Learning for Image Recognition Posted on 2023-07-17 Edited on 2023-07-24 In machine_learning 结论 现状:深的神经网络很难训练,本文提出了一种残差结构可以构建152层深的网络 训练的“退化”现象:层数变深了,误差反而更高 解决方案:加shortcut,优势是没有引入额外的参数 以残差块为基础设计了多个层数的网络,至于为什么这么设计作者没说 有残差的网络不仅效果好,而且收敛快 bottleneck机制:降维卷积计算