From 43281f29b79ea6b29310174871febbb9aa4c30cc Mon Sep 17 00:00:00 2001 From: kinghuin Date: Wed, 17 Jul 2019 18:52:57 +0800 Subject: [PATCH] fix layers number error test=develop --- 03.image_classification/README.cn.md | 2 +- 03.image_classification/index.cn.html | 2 +- 2 files changed, 2 insertions(+), 2 deletions(-) diff --git a/03.image_classification/README.cn.md b/03.image_classification/README.cn.md index 0fb2431..b402589 100644 --- a/03.image_classification/README.cn.md +++ b/03.image_classification/README.cn.md @@ -146,7 +146,7 @@ ResNet(Residual Network) \[[15](#参考文献)\] 是2015年ImageNet图像分类 图9. 残差模块

-图10展示了50、101、152层网络连接示意图,使用的是瓶颈模块。这三个模型的区别在于每组中残差模块的重复次数不同(见图右上角)。ResNet训练收敛较快,成功的训练了上百乃至近千层的卷积神经网络。 +图10展示了50、116、152层网络连接示意图,使用的是瓶颈模块。这三个模型的区别在于每组中残差模块的重复次数不同(见图右上角)。ResNet训练收敛较快,成功的训练了上百乃至近千层的卷积神经网络。


diff --git a/03.image_classification/index.cn.html b/03.image_classification/index.cn.html index 19f857a..acd18c5 100644 --- a/03.image_classification/index.cn.html +++ b/03.image_classification/index.cn.html @@ -188,7 +188,7 @@ ResNet(Residual Network) \[[15](#参考文献)\] 是2015年ImageNet图像分类 图9. 残差模块

-图10展示了50、101、152层网络连接示意图,使用的是瓶颈模块。这三个模型的区别在于每组中残差模块的重复次数不同(见图右上角)。ResNet训练收敛较快,成功的训练了上百乃至近千层的卷积神经网络。 +图10展示了50、116、152层网络连接示意图,使用的是瓶颈模块。这三个模型的区别在于每组中残差模块的重复次数不同(见图右上角)。ResNet训练收敛较快,成功的训练了上百乃至近千层的卷积神经网络。


-- GitLab