From 43281f29b79ea6b29310174871febbb9aa4c30cc Mon Sep 17 00:00:00 2001
From: kinghuin
Date: Wed, 17 Jul 2019 18:52:57 +0800
Subject: [PATCH] fix layers number error test=develop
---
03.image_classification/README.cn.md | 2 +-
03.image_classification/index.cn.html | 2 +-
2 files changed, 2 insertions(+), 2 deletions(-)
diff --git a/03.image_classification/README.cn.md b/03.image_classification/README.cn.md
index 0fb2431..b402589 100644
--- a/03.image_classification/README.cn.md
+++ b/03.image_classification/README.cn.md
@@ -146,7 +146,7 @@ ResNet(Residual Network) \[[15](#参考文献)\] 是2015年ImageNet图像分类
图9. 残差模块
-图10展示了50、101、152层网络连接示意图,使用的是瓶颈模块。这三个模型的区别在于每组中残差模块的重复次数不同(见图右上角)。ResNet训练收敛较快,成功的训练了上百乃至近千层的卷积神经网络。
+图10展示了50、116、152层网络连接示意图,使用的是瓶颈模块。这三个模型的区别在于每组中残差模块的重复次数不同(见图右上角)。ResNet训练收敛较快,成功的训练了上百乃至近千层的卷积神经网络。
diff --git a/03.image_classification/index.cn.html b/03.image_classification/index.cn.html
index 19f857a..acd18c5 100644
--- a/03.image_classification/index.cn.html
+++ b/03.image_classification/index.cn.html
@@ -188,7 +188,7 @@ ResNet(Residual Network) \[[15](#参考文献)\] 是2015年ImageNet图像分类
图9. 残差模块
-图10展示了50、101、152层网络连接示意图,使用的是瓶颈模块。这三个模型的区别在于每组中残差模块的重复次数不同(见图右上角)。ResNet训练收敛较快,成功的训练了上百乃至近千层的卷积神经网络。
+图10展示了50、116、152层网络连接示意图,使用的是瓶颈模块。这三个模型的区别在于每组中残差模块的重复次数不同(见图右上角)。ResNet训练收敛较快,成功的训练了上百乃至近千层的卷积神经网络。
--
GitLab