diff --git a/03.image_classification/README.cn.md b/03.image_classification/README.cn.md index 0fb24313873d075216ff083966cf21610803bd40..b402589b3377b573f3bb6fd8c713d34550093df2 100644 --- a/03.image_classification/README.cn.md +++ b/03.image_classification/README.cn.md @@ -146,7 +146,7 @@ ResNet(Residual Network) \[[15](#参考文献)\] 是2015年ImageNet图像分类 图9. 残差模块

-图10展示了50、101、152层网络连接示意图,使用的是瓶颈模块。这三个模型的区别在于每组中残差模块的重复次数不同(见图右上角)。ResNet训练收敛较快,成功的训练了上百乃至近千层的卷积神经网络。 +图10展示了50、116、152层网络连接示意图,使用的是瓶颈模块。这三个模型的区别在于每组中残差模块的重复次数不同(见图右上角)。ResNet训练收敛较快,成功的训练了上百乃至近千层的卷积神经网络。


diff --git a/03.image_classification/index.cn.html b/03.image_classification/index.cn.html index 19f857a3bf174d7bfdb512f10cd127d3aaca3982..acd18c5c2171ecbc417a938ca3ffed8623eed5d1 100644 --- a/03.image_classification/index.cn.html +++ b/03.image_classification/index.cn.html @@ -188,7 +188,7 @@ ResNet(Residual Network) \[[15](#参考文献)\] 是2015年ImageNet图像分类 图9. 残差模块

-图10展示了50、101、152层网络连接示意图,使用的是瓶颈模块。这三个模型的区别在于每组中残差模块的重复次数不同(见图右上角)。ResNet训练收敛较快,成功的训练了上百乃至近千层的卷积神经网络。 +图10展示了50、116、152层网络连接示意图,使用的是瓶颈模块。这三个模型的区别在于每组中残差模块的重复次数不同(见图右上角)。ResNet训练收敛较快,成功的训练了上百乃至近千层的卷积神经网络。