什么是 ResNet?
ResNet(Residual Network)由何恺明等人于2015年提出,通过引入“残差连接”(skip connection)解决了深层网络训练中的梯度消失问题。其核心思想是让网络学习残差函数而非直接映射,使得即使网络层数增加,也能有效训练。
什么是 DenseNet?
DenseNet(Densely Connected Convolutional Networks)由 Huang Gao 等人于2017年提出,其特点是每一层都直接连接到所有后续层。这种密集连接不仅增强了特征传播和重用,还显著减少了参数数量。
ResNet vs DenseNet:关键区别
- 连接方式:ResNet 使用跳跃连接将输入加到输出;DenseNet 将所有前面层的特征图拼接作为当前层的输入。
- 参数效率:DenseNet 通常比 ResNet 参数更少,特征复用更强。
- 计算复杂度:DenseNet 在深层时可能带来更高的内存占用,但可通过 Dense Block 和 Transition Layer 优化。
- 适用场景:ResNet 广泛用于图像分类、目标检测等任务;DenseNet 在医学图像、小样本数据集上表现优异。
结语
无论是 ResNet 的简洁高效,还是 DenseNet 的特征密集复用,两者都为现代深度学习模型的发展奠定了坚实基础。理解它们的原理有助于我们在实际项目中做出更合适的选择。