Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
d2l-zh
提交
4a4b71f9
D
d2l-zh
项目概览
OpenDocCN
/
d2l-zh
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
d2l-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
4a4b71f9
编写于
9月 10, 2018
作者:
A
Aston Zhang
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
till forward prop
上级
c6d599c2
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
1 addition
and
1 deletion
+1
-1
chapter_deep-learning-basics/backprop.md
chapter_deep-learning-basics/backprop.md
+1
-1
未找到文件。
chapter_deep-learning-basics/backprop.md
浏览文件 @
4a4b71f9
# 正向传播、反向传播和计算图
前面几节里我们使用了
基于梯度下降的优化算法来训练模型。在实现中我们只提供了模型的正向传播(forward propagation)的计算,即对输入计算模型输出。然后通过autograd模块来调用系统自动生成的
`backward`
函数计算导数。自动求导极大的简化了深度学习模型训练算法的实现。但求导,又称反向传播(back-propagation),是深度学习的一个重要概念。这一节我们将使用数学和计算图两个方式来描述正向传播和反向传播。具体的,我们将一个简单的
带$L_2$范数正则化的单隐藏层感知机为例解释正向传播和反向传播。
前面几节里我们使用了
小批量随机梯度下降的优化算法来训练模型。在实现中,我们只提供了模型的正向传播(forward propagation)的计算,即对输入计算模型输出,然后通过
`autograd`
模块来调用系统自动生成的
`backward`
函数计算梯度。自动求梯度极大简化了深度学习模型训练算法的实现。除了利用正向传播的计算结果以外,深度学习模型的梯度计算还需要使用反向传播(back-propagation)算法。这一节我们将使用数学和计算图两个方式来描述正向传播和反向传播。具体地,我们将以
带$L_2$范数正则化的单隐藏层感知机为例解释正向传播和反向传播。
## 正向传播
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录