提交 f8a43f1d 编写于 作者: A Aston Zhang

reorg dl basics

上级 6231b3c0
# 丢弃法——使用Gluon
# 丢弃法的Gluon实现
本节中,我们将上一节的实验代码用Gluon实现一遍。你会发现代码将精简很多。
......
# 丢弃法——从零开始
# 丢弃法
除了前两节介绍的权重衰减以外,深度学习模型常常使用丢弃法(dropout)来应对过拟合问题。丢弃法有一些不同的变体。本节中提到的丢弃法特指倒置丢弃法(inverted dropout)。它被广泛使用于深度学习。
......
......@@ -7,21 +7,21 @@
.. toctree::
:maxdepth: 2
shallow-model
linear-regression-concepts
linear-regression-scratch
linear-regression-gluon
classification
softmax-regression-concepts
softmax-regression-scratch
softmax-regression-gluon
multi-layer
mlp-concepts
mlp-scratch
mlp-gluon
underfit-overfit
reg-scratch
reg
reg-gluon
dropout-scratch
dropout
dropout-gluon
backprop
kaggle-gluon-kfold
kaggle-house-price
```
# 单层神经网络
# 线性回归的概念
在本章的前几节,让我们重温一些经典的浅层模型,例如线性回归和Softmax回归。前者适用于回归问题:模型最终输出是一个连续值,例如房价;后者适用于分类问题:模型最终输出是一个离散值,例如图片的类别。这两种浅层模型本质上都是单层神经网络。它们涉及到的概念和技术对大多数深度学习模型来说同样适用。
......
# 线性回归——使用Gluon
# 线性回归的Gluon实现
随着深度学习框架的发展,开发深度学习应用变得越来越便利。实践中,我们通常可以用比上一节中更简洁的代码来实现相同模型。本节中,我们将介绍如何使用MXNet提供的Gluon接口更方便地实现线性回归的训练。
......
# 线性回归——从零开始
# 线性回归的从零开始实现
在了解了线性回归的背景知识之后,现在我们可以动手实现它了。
尽管强大的深度学习框架可以减少大量重复性工作,但若过于依赖它提供的便利,我们就会很难深入理解深度学习是如何工作的。因此,本节将介绍如何只利用NDArray和`autograd`来实现一个线性回归的训练。
......
# 多层神经网络
# 多层感知机的概念
我们已经介绍了包括线性回归和Softmax回归在内的单层神经网络。本节中,我们将以多层感知机(multilayer perceptron,简称MLP)为例,介绍多层神经网络的概念。
......
# 多层感知机——使用Gluon
# 多层感知机的Gluon实现
下面我们使用Gluon来实现上一节中的多层感知机。首先我们导入所需的包或模块。
......
# 多层感知机——从零开始
# 多层感知机的从零开始实现
我们已经从上一章里了解了多层感知机的原理。下面,我们一起来动手实现一个多层感知机。首先导入实现所需的包或模块。
......
# 权重衰减——使用Gluon
# 权重衰减的Gluon实现
本节将介绍如何使用Gluon实现上一节介绍的权重衰减。首先导入实验所需的包或模块。
......
# 权重衰减——从零开始
# 权重衰减
上一节中我们观察了过拟合现象,即模型的训练误差远小于它在测试数据集上的误差。本节将介绍应对过拟合问题的常用方法:权重衰减。
......
# 分类模型
# Softmax回归的概念
前几节介绍的线性回归模型适用于输出为连续值的情景,例如输出为房价。在其他情景中,模型输出还可以是一个离散值,例如图片类别。对于这样的分类问题,我们可以使用分类模型,例如softmax回归。和线性回归不同,softmax回归的输出单元从一个变成了多个。本节以softmax回归模型为例,介绍神经网络中的分类模型。Softmax回归是一个单层神经网络。
......
# Softmax回归——使用Gluon
# Softmax回归的Gluon实现
我们在[“线性回归——使用Gluon”](linear-regression-gluon.md)一节中已经了解了使用Gluon实现模型的便利。下面,让我们使用Gluon来实现一个Softmax回归模型。
......
# Softmax回归——从零开始
# Softmax回归的从零开始实现
下面我们来动手实现Softmax回归。首先,导入实验所需的包或模块。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册