Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
book
提交
af901cbe
B
book
项目概览
PaddlePaddle
/
book
通知
16
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
40
列表
看板
标记
里程碑
合并请求
37
Wiki
5
Wiki
分析
仓库
DevOps
项目成员
Pages
B
book
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
40
Issue
40
列表
看板
标记
里程碑
合并请求
37
合并请求
37
Pages
分析
分析
仓库分析
DevOps
Wiki
5
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
af901cbe
编写于
3月 24, 2017
作者:
J
jacquesqiao
提交者:
GitHub
3月 24, 2017
浏览文件
操作
浏览文件
下载
差异文件
Merge pull request #224 from jacquesqiao/little-fix-in-mnist
fix a inaccuracy description in recognize digits
上级
a1b48c4d
3390616b
变更
4
隐藏空白更改
内联
并排
Showing
4 changed file
with
4 addition
and
4 deletion
+4
-4
01.fit_a_line/README.md
01.fit_a_line/README.md
+1
-1
01.fit_a_line/index.html
01.fit_a_line/index.html
+1
-1
02.recognize_digits/README.md
02.recognize_digits/README.md
+1
-1
02.recognize_digits/index.html
02.recognize_digits/index.html
+1
-1
未找到文件。
01.fit_a_line/README.md
浏览文件 @
af901cbe
...
...
@@ -29,7 +29,7 @@ $$\hat{Y} = \omega_1X_{1} + \omega_2X_{2} + \ldots + \omega_{13}X_{13} + b$$
$
\h
at{Y}$ 表示模型的预测结果,用来和真实值$Y$区分。模型要学习的参数即:$
\o
mega_1,
\l
dots,
\o
mega_{13}, b$。
建立模型后,我们需要给模型一个优化目标,使得学到的参数能够让预测值$
\h
at{Y}$尽可能地接近真实值$Y$。这里我们引入损失函数(
[
Loss Function
](
https://en.wikipedia.org/wiki/Loss_function
)
,或Cost Function)这个概念。 输入任意一个数据样本的目标值$y_{i}$和模型给出的预测值$
\h
at{y_{i}}$,损失函数输出一个非负的实值。这个实
质
通常用来反映模型误差的大小。
建立模型后,我们需要给模型一个优化目标,使得学到的参数能够让预测值$
\h
at{Y}$尽可能地接近真实值$Y$。这里我们引入损失函数(
[
Loss Function
](
https://en.wikipedia.org/wiki/Loss_function
)
,或Cost Function)这个概念。 输入任意一个数据样本的目标值$y_{i}$和模型给出的预测值$
\h
at{y_{i}}$,损失函数输出一个非负的实值。这个实
值
通常用来反映模型误差的大小。
对于线性回归模型来讲,最常见的损失函数就是均方误差(Mean Squared Error,
[
MSE
](
https://en.wikipedia.org/wiki/Mean_squared_error
)
)了,它的形式是:
...
...
01.fit_a_line/index.html
浏览文件 @
af901cbe
...
...
@@ -71,7 +71,7 @@ $$\hat{Y} = \omega_1X_{1} + \omega_2X_{2} + \ldots + \omega_{13}X_{13} + b$$
$\hat{Y}$ 表示模型的预测结果,用来和真实值$Y$区分。模型要学习的参数即:$\omega_1, \ldots, \omega_{13}, b$。
建立模型后,我们需要给模型一个优化目标,使得学到的参数能够让预测值$\hat{Y}$尽可能地接近真实值$Y$。这里我们引入损失函数([Loss Function](https://en.wikipedia.org/wiki/Loss_function),或Cost Function)这个概念。 输入任意一个数据样本的目标值$y_{i}$和模型给出的预测值$\hat{y_{i}}$,损失函数输出一个非负的实值。这个实
质
通常用来反映模型误差的大小。
建立模型后,我们需要给模型一个优化目标,使得学到的参数能够让预测值$\hat{Y}$尽可能地接近真实值$Y$。这里我们引入损失函数([Loss Function](https://en.wikipedia.org/wiki/Loss_function),或Cost Function)这个概念。 输入任意一个数据样本的目标值$y_{i}$和模型给出的预测值$\hat{y_{i}}$,损失函数输出一个非负的实值。这个实
值
通常用来反映模型误差的大小。
对于线性回归模型来讲,最常见的损失函数就是均方误差(Mean Squared Error, [MSE](https://en.wikipedia.org/wiki/Mean_squared_error))了,它的形式是:
...
...
02.recognize_digits/README.md
浏览文件 @
af901cbe
...
...
@@ -36,7 +36,7 @@ $$ y_i = \text{softmax}(\sum_j W_{i,j}x_j + b_i) $$
其中 $
\t
ext{softmax}(x_i) =
\f
rac{e^{x_i}}{
\s
um_j e^{x_j}} $
对于有 $N$ 个类别的多分类问题,指定 $N$ 个输出节点,$N$ 维
输入特征
经过softmax将归一化为 $N$ 个[0,1]范围内的实数值,分别表示该样本属于这 $N$ 个类别的概率。此处的 $y_i$ 即对应该图片为数字 $i$ 的预测概率。
对于有 $N$ 个类别的多分类问题,指定 $N$ 个输出节点,$N$ 维
结果向量
经过softmax将归一化为 $N$ 个[0,1]范围内的实数值,分别表示该样本属于这 $N$ 个类别的概率。此处的 $y_i$ 即对应该图片为数字 $i$ 的预测概率。
在分类问题中,我们一般采用交叉熵代价损失函数(cross entropy),公式如下:
...
...
02.recognize_digits/index.html
浏览文件 @
af901cbe
...
...
@@ -78,7 +78,7 @@ $$ y_i = \text{softmax}(\sum_j W_{i,j}x_j + b_i) $$
其中 $ \text{softmax}(x_i) = \frac{e^{x_i}}{\sum_j e^{x_j}} $
对于有 $N$ 个类别的多分类问题,指定 $N$ 个输出节点,$N$ 维
输入特征
经过softmax将归一化为 $N$ 个[0,1]范围内的实数值,分别表示该样本属于这 $N$ 个类别的概率。此处的 $y_i$ 即对应该图片为数字 $i$ 的预测概率。
对于有 $N$ 个类别的多分类问题,指定 $N$ 个输出节点,$N$ 维
结果向量
经过softmax将归一化为 $N$ 个[0,1]范围内的实数值,分别表示该样本属于这 $N$ 个类别的概率。此处的 $y_i$ 即对应该图片为数字 $i$ 的预测概率。
在分类问题中,我们一般采用交叉熵代价损失函数(cross entropy),公式如下:
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录