Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
book
提交
c41fb426
B
book
项目概览
PaddlePaddle
/
book
通知
16
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
40
列表
看板
标记
里程碑
合并请求
37
Wiki
5
Wiki
分析
仓库
DevOps
项目成员
Pages
B
book
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
40
Issue
40
列表
看板
标记
里程碑
合并请求
37
合并请求
37
Pages
分析
分析
仓库分析
DevOps
Wiki
5
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
c41fb426
编写于
1月 18, 2017
作者:
D
dayhaha
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
follow comment by Zrachel
上级
5b47f3c2
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
4 addition
and
4 deletion
+4
-4
recognize_digits/README.md
recognize_digits/README.md
+4
-4
未找到文件。
recognize_digits/README.md
浏览文件 @
c41fb426
...
...
@@ -23,9 +23,9 @@ Yann LeCun早先在手写字符识别上做了很多研究,并在研究过程
这是一个分类问题,基于MNIST数据,我们希望训练一个分类器 $f$。输入为MNIST数据库的图片, $28
\t
imes28$ 的二维图像,为了进行计算,我们一般将上将 $28
\t
imes28$ 的二维图像转化为 $n(n=784)$ 维的向量,因此我们采用$x_i(i=0,1,2,...,n-1)$(向量表示为$X$)来表示输入的图片数据。对于每张给定的图片数据 $X$,我们采用$ y_i (i=0,1,2,..9)$(向量表示为 $Y$来表示预测的输出,预测结果为 $ Y = f(X) $。然后,我们用 $label_i$ (向量表示为$L$)来代表标签,则预测结果 $Y$ 应该尽可能准确的接近真实标签 $L$。
$Y$和$L$具体含义为:比如说,$y_i$组成的向量$Y$为[0.2,0.3,0,1,0,0.1,0.1,0.1,0.1,0],每一维
分别代表图像数字预测为0~9的概率;而此时$label_i$组成的向量$L$可能为[0,1,0,0,0,0,0,0,0,0],其代表标签为1,即输入$X$代表图片的数字为
1。则$Y$和$L$尽可能接近的意思是$Y$中概率最大的一维为$L$中对应的标签,并且概率越大则代表越接近。
$Y$和$L$具体含义为:比如说,$y_i$组成的向量$Y$为[0.2,0.3,0,1,0,0.1,0.1,0.1,0.1,0],每一维
$y_i$分别代表图像数字预测为第$i$类的概率($i
\i
n[0,9]$);而图像的真实标签$L$由$label_i$表示,其中只有一维为1,其他为0,如[0,1,0,0,0,0,0,0,0,0],其代表标签为第二类,即标签为0到9中的
1。则$Y$和$L$尽可能接近的意思是$Y$中概率最大的一维为$L$中对应的标签,并且概率越大则代表越接近。
下面我们一一介绍本章中使用的三个
分类器
Softmax回归、多层感知器、卷积神经网络。
下面我们一一介绍本章中使用的三个
基本图像分类网络
Softmax回归、多层感知器、卷积神经网络。
### Softmax回归(Softmax Regression)
...
...
@@ -46,11 +46,11 @@ $$ y_i = softmax(\sum_j W_{i,j}x_j + b_i) $$
图2. softmax回归网络结构图
<br/>
</p>
神经网络
的训练采用
`backpropagation`
的形式,其一般会定义一个损失函数(也称目标函数),训练的目的是为了减小目标函数的值。在分类问题中,我们一般采用交叉熵代价损失函数(cross entropy)
,其形式如下:
神经网络
一般会定义一个损失函数(也称目标函数),训练的过程是通过改变网络参数来最小化这个损失函数,此过程可以采用
`backpropagation`
算法。在分类问题中,我们一般采用交叉熵代价损失函数(cross entropy)
,其形式如下:
$$ CE(label, y) = -
\s
um_i label_ilog(y_i) $$
上面公式为softmax输出层的交叉熵代价损失函数,CE为cross entropy的简称,
y是预测每一类的概率,label
是标签。
上面公式为softmax输出层的交叉熵代价损失函数,CE为cross entropy的简称,
$y_i$是预测每一类的概率,$label_i$
是标签。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录