Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
d2l-zh
提交
b2a99ace
D
d2l-zh
项目概览
OpenDocCN
/
d2l-zh
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
d2l-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
b2a99ace
编写于
5月 28, 2018
作者:
A
Aston Zhang
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
aligned
上级
d6d1c7c8
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
6 addition
and
4 deletion
+6
-4
chapter_optimization/momentum-scratch.md
chapter_optimization/momentum-scratch.md
+6
-4
未找到文件。
chapter_optimization/momentum-scratch.md
浏览文件 @
b2a99ace
...
...
@@ -19,13 +19,15 @@
动量法的提出是为了应对梯度下降的上述问题。广义上,以小批量随机梯度下降为例(当批量大小等于训练集样本数时,该算法即为梯度下降;批量大小为1时即为随机梯度下降),我们对小批量随机梯度算法在每次迭代的步骤做如下修改:
$$
\b
egin{align
*
}
\b
egin{align
ed
}
\b
oldsymbol{v} &
\l
eftarrow
\g
amma
\b
oldsymbol{v} +
\e
ta
\n
abla f_
\m
athcal{B}(
\b
oldsymbol{x}),
\\
\b
oldsymbol{x} &
\l
eftarrow
\b
oldsymbol{x} -
\b
oldsymbol{v}.
\e
nd{align
*
}
\e
nd{align
ed
}
$$
其中$
\b
oldsymbol{v}$是速度变量,动量超参数$
\g
amma$满足$0
\l
eq
\g
amma
\l
eq 1$。动量法中的学习率$
\e
ta$和有关小批量$
\m
athcal{B}$的随机梯度$
\n
abla f_
\m
athcal{B}(
\b
oldsymbol{x})$已在
[
“梯度下降和随机梯度下降”
](
./gd-sgd-scratch.md
)
一节中描述。
...
...
@@ -38,12 +40,12 @@ $$y^{(t)} = \gamma y^{(t-1)} + (1-\gamma) x^{(t)}.$$
我们可以对$y^{(t)}$展开:
$$
\b
egin{align
*
}
\b
egin{align
ed
}
y^{(t)} &= (1-
\g
amma) x^{(t)} +
\g
amma y^{(t-1)}
\\
&= (1-
\g
amma)x^{(t)} + (1-
\g
amma)
\c
dot
\g
amma x^{(t-1)} +
\g
amma^2y^{(t-2)}
\\
&= (1-
\g
amma)x^{(t)} + (1-
\g
amma)
\c
dot
\g
amma x^{(t-1)} + (1-
\g
amma)
\c
dot
\g
amma^2x^{(t-2)} +
\g
amma^3y^{(t-3)}
\\
&
\l
dots
\e
nd{align
*
}
\e
nd{align
ed
}
$$
由于
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录