Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
book
提交
aea1c5e6
B
book
项目概览
PaddlePaddle
/
book
通知
16
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
40
列表
看板
标记
里程碑
合并请求
37
Wiki
5
Wiki
分析
仓库
DevOps
项目成员
Pages
B
book
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
40
Issue
40
列表
看板
标记
里程碑
合并请求
37
合并请求
37
Pages
分析
分析
仓库分析
DevOps
Wiki
5
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
aea1c5e6
编写于
3月 06, 2017
作者:
D
dangqingqing
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Refine formula
上级
3aacf881
变更
1
显示空白变更内容
内联
并排
Showing
1 changed file
with
8 addition
and
5 deletion
+8
-5
recognize_digits/README.md
recognize_digits/README.md
+8
-5
未找到文件。
recognize_digits/README.md
浏览文件 @
aea1c5e6
...
@@ -83,12 +83,15 @@ Softmax回归模型采用了最简单的两层神经网络,即只有输入层
...
@@ -83,12 +83,15 @@ Softmax回归模型采用了最简单的两层神经网络,即只有输入层
图4. 卷积层图片
<br/>
图4. 卷积层图片
<br/>
</p>
</p>
图4给出一个卷积计算过程的示例图,输入图像大小为$H=5,W=5,D=3$,即$5x5$大小的3通道(RGB,也称作深度)彩色图像。这个示例图中包含两(用$K$表示)组卷积核,即图中$Filter W_0$和$Filter W_1$,在卷积计算中,通常对不同的输入通道采用不同的卷积核,在图示例中每组卷积核又包含3($D$)个$3x3$(用$FXF$表示)大小的卷积核。另外,这个示例中卷积核在图像的水平方向($W$方向)和垂直方向($H$方向)的滑动步长为2(用$S$表示);对输入图像周围各填充1(用$P$表示)个0,即图中输入层原始数据为蓝色部分,灰色部分是进行了大小为1的扩展,用0来进行扩展。经过卷积操作得到输出为$3x3x2$(用$H_{o}xW_{o}xK$表示)大小的特征图,即$3x3$大小的2通道特征图,其中$H_o$计算公式为:$H_o = (H - F + 2
*
P)/S + 1$,$W_o$同理。 而输出特征图中的每个像素,是每组滤波器与输入图像每个特征图的内积再求和,再加上偏置($b_o$),偏置通常对于每个输出特征图是共享的。例如图中输出特征图
`o[:,:,0]`
中的$-9$计算如下:
图4给出一个卷积计算过程的示例图,输入图像大小为$H=5,W=5,D=3$,即$5x5$大小的3通道(RGB,也称作深度)彩色图像。这个示例图中包含两(用$K$表示)组卷积核,即图中$Filter W_0$和$Filter W_1$,在卷积计算中,通常对不同的输入通道采用不同的卷积核,如图示例中每组卷积核包含3($D$)个$3x3$(用$FXF$表示)大小的卷积核。另外,这个示例中卷积核在图像的水平方向($W$方向)和垂直方向($H$方向)的滑动步长为2(用$S$表示);对输入图像周围各填充1(用$P$表示)个0,即图中输入层原始数据为蓝色部分,灰色部分是进行了大小为1的扩展,用0来进行扩展。经过卷积操作得到输出为$3x3x2$(用$H_{o}xW_{o}xK$表示)大小的特征图,即$3x3$大小的2通道特征图,其中$H_o$计算公式为:$H_o = (H - F + 2
*
P)/S + 1$,$W_o$同理。 而输出特征图中的每个像素,是每组滤波器与输入图像每个特征图的内积再求和,再加上偏置($b_o$),偏置通常对于每个输出特征图是共享的。例如图中输出特征图
`o[:,:,0]`
中的第一个$2$计算如下:
$$-9 =
\s
um x[4:6,4:6,0]
* W[:,:,0]] + \sum x[4:6,4:6,1] *
W[:,:,1]] +
\s
um x[4:6,4:6,2]
*
W[:,:,2]] + b_0
\\
\b
egin{align}
\s
um x[4:6,4:6,0]
* W[:,:,0]] = 2*
1 + 2
*(-1) + 0*
1 + 0
*0 + 2*
(-1) + 0
*1 + 0*
0 + 0
*0 + 0*
0 = -2
\\
o[0,0,0] =
\s
um x[0:3,0:3,0]
* w_{0}[:,:,0]] + \sum x[0:3,0:3,1] *
w_{0}[:,:,1]] +
\s
um x[0:3,0:3,2]
*
w_{0}[:,:,2]] + b_0 = 2
\s
um x[4:6,4:6,1]
* W[:,:,1]] = 2*
(-1) + 2
*(-1) + 0*
0 + 2
*0 + 2*
(-1) + 0
*(-1) + 0*
0 + 0
*1 + 0*
1 = -6
\\
\s
um x[0:3,0:3,0]
* w_{0}[:,:,0]] & = 0*
1 + 0
*1 + 0*
1 + 0
*1 + 1*
1 + 2
*(-1) + 0*
(-1) + 0
*1 + 0*
(-1) = -1
\\\\
\s
um x[4:6,4:6,2]
* W[:,:,2]] = 0*
0 + 0
*1 + 0*
1 + 2
*(-1) + 1*
0 + 0
*1 + 0*
1 + 0
*0 + 0*
1 = -2$$
\s
um x[0:3,0:3,1]
* w_{0}[:,:,1]] & = 0*
0 + 0
*1 + 0*
1 + 0
*(-1) + 0*
0 + 1
*1 + 0*
1 + 2
*0 + 1*
1 = 2
\\\\
\s
um x[0:3,0:3,2]
* w_{0}[:,:,2]] & = 0*
(-1) + 0
*1 + 0*
(-1) + 0
*0 + 1*
1 + 1
*0 + 0*
(-1) + 1
*0 + 1*
(-1) = 0
\\\\
b_0 & = 1
\\\\
\e
nd{align}
在卷积操作中卷积核是可学习的参数,经过上面示例介绍,每层卷积的参数大小为$DxFxFxK$。在多层感知器模型中,神经元通常是全部连接,参数较多。而卷积层的参数较少,这也是由卷积层的主要特性即局部连接和共享权重所决定。
在卷积操作中卷积核是可学习的参数,经过上面示例介绍,每层卷积的参数大小为$DxFxFxK$。在多层感知器模型中,神经元通常是全部连接,参数较多。而卷积层的参数较少,这也是由卷积层的主要特性即局部连接和共享权重所决定。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录