Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
d2l-zh
提交
f8a43f1d
D
d2l-zh
项目概览
OpenDocCN
/
d2l-zh
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
d2l-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
f8a43f1d
编写于
7月 02, 2018
作者:
A
Aston Zhang
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
reorg dl basics
上级
6231b3c0
变更
15
隐藏空白更改
内联
并排
Showing
15 changed file
with
19 addition
and
19 deletion
+19
-19
chapter_deep-learning-basics/dropout-gluon.md
chapter_deep-learning-basics/dropout-gluon.md
+1
-1
chapter_deep-learning-basics/dropout.md
chapter_deep-learning-basics/dropout.md
+1
-1
chapter_deep-learning-basics/index.md
chapter_deep-learning-basics/index.md
+6
-6
chapter_deep-learning-basics/kaggle-house-price.md
chapter_deep-learning-basics/kaggle-house-price.md
+0
-0
chapter_deep-learning-basics/linear-regression-concepts.md
chapter_deep-learning-basics/linear-regression-concepts.md
+1
-1
chapter_deep-learning-basics/linear-regression-gluon.md
chapter_deep-learning-basics/linear-regression-gluon.md
+1
-1
chapter_deep-learning-basics/linear-regression-scratch.md
chapter_deep-learning-basics/linear-regression-scratch.md
+1
-1
chapter_deep-learning-basics/mlp-concepts.md
chapter_deep-learning-basics/mlp-concepts.md
+1
-1
chapter_deep-learning-basics/mlp-gluon.md
chapter_deep-learning-basics/mlp-gluon.md
+1
-1
chapter_deep-learning-basics/mlp-scratch.md
chapter_deep-learning-basics/mlp-scratch.md
+1
-1
chapter_deep-learning-basics/reg-gluon.md
chapter_deep-learning-basics/reg-gluon.md
+1
-1
chapter_deep-learning-basics/reg.md
chapter_deep-learning-basics/reg.md
+1
-1
chapter_deep-learning-basics/softmax-regression-concepts.md
chapter_deep-learning-basics/softmax-regression-concepts.md
+1
-1
chapter_deep-learning-basics/softmax-regression-gluon.md
chapter_deep-learning-basics/softmax-regression-gluon.md
+1
-1
chapter_deep-learning-basics/softmax-regression-scratch.md
chapter_deep-learning-basics/softmax-regression-scratch.md
+1
-1
未找到文件。
chapter_deep-learning-basics/dropout-gluon.md
浏览文件 @
f8a43f1d
# 丢弃法
——使用Gluon
# 丢弃法
的Gluon实现
本节中,我们将上一节的实验代码用Gluon实现一遍。你会发现代码将精简很多。
...
...
chapter_deep-learning-basics/dropout
-scratch
.md
→
chapter_deep-learning-basics/dropout.md
浏览文件 @
f8a43f1d
# 丢弃法
——从零开始
# 丢弃法
除了前两节介绍的权重衰减以外,深度学习模型常常使用丢弃法(dropout)来应对过拟合问题。丢弃法有一些不同的变体。本节中提到的丢弃法特指倒置丢弃法(inverted dropout)。它被广泛使用于深度学习。
...
...
chapter_deep-learning-basics/index.md
浏览文件 @
f8a43f1d
...
...
@@ -7,21 +7,21 @@
.. toctree::
:maxdepth: 2
shallow-model
linear-regression-concepts
linear-regression-scratch
linear-regression-gluon
classification
softmax-regression-concepts
softmax-regression-scratch
softmax-regression-gluon
m
ulti-layer
m
lp-concepts
mlp-scratch
mlp-gluon
underfit-overfit
reg
-scratch
reg
reg-gluon
dropout
-scratch
dropout
dropout-gluon
backprop
kaggle-
gluon-kfold
kaggle-
house-price
```
chapter_deep-learning-basics/kaggle-
gluon-kfold
.md
→
chapter_deep-learning-basics/kaggle-
house-price
.md
浏览文件 @
f8a43f1d
文件已移动
chapter_deep-learning-basics/
shallow-model
.md
→
chapter_deep-learning-basics/
linear-regression-concepts
.md
浏览文件 @
f8a43f1d
#
单层神经网络
#
线性回归的概念
在本章的前几节,让我们重温一些经典的浅层模型,例如线性回归和Softmax回归。前者适用于回归问题:模型最终输出是一个连续值,例如房价;后者适用于分类问题:模型最终输出是一个离散值,例如图片的类别。这两种浅层模型本质上都是单层神经网络。它们涉及到的概念和技术对大多数深度学习模型来说同样适用。
...
...
chapter_deep-learning-basics/linear-regression-gluon.md
浏览文件 @
f8a43f1d
# 线性回归
——使用Gluon
# 线性回归
的Gluon实现
随着深度学习框架的发展,开发深度学习应用变得越来越便利。实践中,我们通常可以用比上一节中更简洁的代码来实现相同模型。本节中,我们将介绍如何使用MXNet提供的Gluon接口更方便地实现线性回归的训练。
...
...
chapter_deep-learning-basics/linear-regression-scratch.md
浏览文件 @
f8a43f1d
# 线性回归
——从零开始
# 线性回归
的从零开始实现
在了解了线性回归的背景知识之后,现在我们可以动手实现它了。
尽管强大的深度学习框架可以减少大量重复性工作,但若过于依赖它提供的便利,我们就会很难深入理解深度学习是如何工作的。因此,本节将介绍如何只利用NDArray和
`autograd`
来实现一个线性回归的训练。
...
...
chapter_deep-learning-basics/m
ulti-layer
.md
→
chapter_deep-learning-basics/m
lp-concepts
.md
浏览文件 @
f8a43f1d
# 多层
神经网络
# 多层
感知机的概念
我们已经介绍了包括线性回归和Softmax回归在内的单层神经网络。本节中,我们将以多层感知机(multilayer perceptron,简称MLP)为例,介绍多层神经网络的概念。
...
...
chapter_deep-learning-basics/mlp-gluon.md
浏览文件 @
f8a43f1d
# 多层感知机
——使用Gluon
# 多层感知机
的Gluon实现
下面我们使用Gluon来实现上一节中的多层感知机。首先我们导入所需的包或模块。
...
...
chapter_deep-learning-basics/mlp-scratch.md
浏览文件 @
f8a43f1d
# 多层感知机
——从零开始
# 多层感知机
的从零开始实现
我们已经从上一章里了解了多层感知机的原理。下面,我们一起来动手实现一个多层感知机。首先导入实现所需的包或模块。
...
...
chapter_deep-learning-basics/reg-gluon.md
浏览文件 @
f8a43f1d
# 权重衰减
——使用Gluon
# 权重衰减
的Gluon实现
本节将介绍如何使用Gluon实现上一节介绍的权重衰减。首先导入实验所需的包或模块。
...
...
chapter_deep-learning-basics/reg
-scratch
.md
→
chapter_deep-learning-basics/reg.md
浏览文件 @
f8a43f1d
# 权重衰减
——从零开始
# 权重衰减
上一节中我们观察了过拟合现象,即模型的训练误差远小于它在测试数据集上的误差。本节将介绍应对过拟合问题的常用方法:权重衰减。
...
...
chapter_deep-learning-basics/
classification
.md
→
chapter_deep-learning-basics/
softmax-regression-concepts
.md
浏览文件 @
f8a43f1d
#
分类模型
#
Softmax回归的概念
前几节介绍的线性回归模型适用于输出为连续值的情景,例如输出为房价。在其他情景中,模型输出还可以是一个离散值,例如图片类别。对于这样的分类问题,我们可以使用分类模型,例如softmax回归。和线性回归不同,softmax回归的输出单元从一个变成了多个。本节以softmax回归模型为例,介绍神经网络中的分类模型。Softmax回归是一个单层神经网络。
...
...
chapter_deep-learning-basics/softmax-regression-gluon.md
浏览文件 @
f8a43f1d
# Softmax回归
——使用Gluon
# Softmax回归
的Gluon实现
我们在
[
“线性回归——使用Gluon”
](
linear-regression-gluon.md
)
一节中已经了解了使用Gluon实现模型的便利。下面,让我们使用Gluon来实现一个Softmax回归模型。
...
...
chapter_deep-learning-basics/softmax-regression-scratch.md
浏览文件 @
f8a43f1d
# Softmax回归
——从零开始
# Softmax回归
的从零开始实现
下面我们来动手实现Softmax回归。首先,导入实验所需的包或模块。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录