Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
d2l-zh
提交
cf4b7689
D
d2l-zh
项目概览
OpenDocCN
/
d2l-zh
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
d2l-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
cf4b7689
编写于
9月 22, 2017
作者:
A
Aston Zhang
提交者:
Mu Li
9月 22, 2017
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Remove unused definitions (#56)
* Remove unused definitions * revise * revise * update * update
上级
7bae8e0d
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
2 addition
and
6 deletion
+2
-6
chapter02_supervised-learning/dropout-gluon.md
chapter02_supervised-learning/dropout-gluon.md
+1
-1
chapter02_supervised-learning/underfit-overfit.md
chapter02_supervised-learning/underfit-overfit.md
+1
-5
未找到文件。
chapter02_supervised-learning/dropout-gluon.md
浏览文件 @
cf4b7689
...
...
@@ -3,7 +3,7 @@
本章介绍如何使用
``Gluon``
在训练和测试深度学习模型中使用丢弃法。
## 定义模型并添加
批量归一化
层
## 定义模型并添加
丢弃
层
有了
`Gluon`
,我们模型的定义工作变得简单了许多。我们只需要在全连接层后添加
`gluon.nn.Dropout`
层并指定元素丢弃概率。一般情况下,我们推荐把
更靠近输入层的元素丢弃概率设的更小一点。这个试验中,我们把第一层全连接后的元素丢弃概率设为0.2,把第二层全连接后的元素丢弃概率设为0.5。
...
...
chapter02_supervised-learning/underfit-overfit.md
浏览文件 @
cf4b7689
...
...
@@ -93,7 +93,6 @@ x = nd.random.normal(shape=(num_train + num_test, 1))
X = nd.concat(x, nd.power(x, 2), nd.power(x, 3))
y = true_w[0] * X[:, 0] + true_w[1] * X[:, 1] + true_w[2] * X[:, 2] + true_b
y += .1 * nd.random.normal(shape=y.shape)
y_train, y_test = y[:num_train], y[num_train:]
('x:', x[:5], 'X:', X[:5], 'y:', y[:5])
```
...
...
@@ -110,9 +109,6 @@ import matplotlib as mpl
mpl.rcParams['figure.dpi']= 120
import matplotlib.pyplot as plt
def test(net, X, y):
return square_loss(net(X), y).mean().asscalar()
def train(X_train, X_test, y_train, y_test):
# 线性回归模型
net = gluon.nn.Sequential()
...
...
@@ -187,7 +183,7 @@ train(X[0:2, :], X[num_train:, :], y[0:2], y[num_train:])
## 练习
1.
学渣、学痞、学痴
、和学霸对应的模型复杂度、训练量、训练误差、泛化误差。
1.
学渣、学痞、学痴
和学霸对应的模型复杂度、训练量、训练误差和泛化误差分别是怎样的?
1.
如果用一个三阶多项式模型来拟合一个线性模型生成的数据,可能会有什么问题?为什么?
1.
在我们本节提到的三阶多项式拟合问题里,有没有可能把1000个样本的训练误差的期望降到0,为什么?
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录