Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
stanford-cs234-notes-zh
提交
8b3ae012
S
stanford-cs234-notes-zh
项目概览
OpenDocCN
/
stanford-cs234-notes-zh
通知
8
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
S
stanford-cs234-notes-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
GitCode(gitcode.net)2024年7月9日维护升级公告
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
8b3ae012
编写于
11月 25, 2019
作者:
X
xiaowei_xing
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
updated
上级
8ab0c195
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
33 addition
and
3 deletion
+33
-3
docs/10.md
docs/10.md
+30
-2
docs/4.md
docs/4.md
+3
-1
未找到文件。
docs/10.md
浏览文件 @
8b3ae012
...
@@ -296,9 +296,37 @@ $$
...
@@ -296,9 +296,37 @@ $$
因此,我们有:
因此,我们有:
$$
$$
\m
athop{
\m
ax}_ {
\p
i'} J(
\p
i') =
\m
athop{
\m
ax}_{
\p
i'}
J(
\p
i')-J(
\p
i
)
\m
athop{
\m
ax}_ {
\p
i'} J(
\p
i') =
\m
athop{
\m
ax}_{
\p
i'}
(J(
\p
i')-J(
\p
i)
)
$$
$$
$$
$$
=
\m
athop{
\m
ax}_ {
\p
i'}
\m
athbb{E}_ {
\t
au
\s
im
\p
i'}[
\s
um_{t=0}^{
\i
nfty}
\g
amma^{t} A^{
\p
i}(s_t,a_t)]。
=
\m
athop{
\m
ax}_ {
\p
i'}
\m
athbb{E}_ {
\t
au
\s
im
\p
i'}[
\s
um_{t=0}^{
\i
nfty}
\g
amma^{t} A^{
\p
i}(s_t,a_t)]。
$$
$$
\ No newline at end of file
上述表达式需要根据 $
\p
i'$ 的轨迹,然而我们还没有 $
\p
i'$,这就导致无法进行优化。我们再一次使用可能性来规避这个问题。
$$
J(
\p
i')-J(
\p
i) =
\m
athbb{E}_ {
\t
au
\s
im
\p
i'}[
\s
um_{t=0}^{
\i
nfty}
\g
amma^{t} A^{
\p
i}(s_t,a_t)]
$$
$$
=
\f
rac{1}{1-
\g
amma}
\m
athbb{E}_ {s
\s
im d^{
\p
i'},a
\s
im
\p
i'}[A^{
\p
i}(s,a)]
$$
$$
=
\f
rac{1}{1-
\g
amma}
\m
athbb{E}_ {s
\s
im d^{
\p
i'},a
\s
im
\p
i} [
\f
rac{
\p
i'(a|s)}{
\p
i(a|s)}A^{
\p
i}(s,a)]
$$
$$
\a
pprox
\f
rac{1}{1-
\g
amma}
\m
athbb{E}_ {s
\s
im d^{
\p
i},a
\s
im
\p
i} [
\f
rac{
\p
i'(a|s)}{
\p
i(a|s)}A^{
\p
i}(s,a)]
$$
$$
=
\f
rac{1}{1-
\g
amma} L_{
\p
i}(
\p
i')。
$$
我们称 $L_{
\p
i}(
\p
i')$ 为替代目标。一个关键问题是什么时候我们可以做出上述近似。显然,当 $
\p
i=
\p
i'$ 时,近似变成了相等。然而这并不是有用的,因为我们希望将当前的策略 $
\p
i$ 改进为更好的策略 $
\p
i'$。在下面的信任区域策略优化(TRPO)的推导中,我们给出做出近似的界。
## 5. 信任区域策略优化(Trust Region Policy Optimization)
TRPO [3] 的关键思想是定义一个限制策略更新的信任区域。这个约束在策略空间中而不是在参数空间中,并且称为算法的新步长。通过这种方式,我们可以大致确保策略更新后的新策略比旧策略表现得更好。
\ No newline at end of file
docs/4.md
浏览文件 @
8b3ae012
...
@@ -81,7 +81,9 @@ $$
...
@@ -81,7 +81,9 @@ $$
$$
$$
第一个等式是因为我们根据策略 $
\p
i_{i+1}$ 生成第一个动作,然后根据策略 $
\p
i_{i}$ 生成之后的动作。第四个等式是因为 $1-
\e
psilon =
\s
um_{a}[
\p
i_{i}(a|s)-
\f
rac{
\e
psilon}{|A|}]$。
第一个等式是因为我们根据策略 $
\p
i_{i+1}$ 生成第一个动作,然后根据策略 $
\p
i_{i}$ 生成之后的动作。第四个等式是因为 $1-
\e
psilon =
\s
um_{a}[
\p
i_{i}(a|s)-
\f
rac{
\e
psilon}{|A|}]$。
根据策略提升定理,我们知道 $Q^{
\p
i_i}(s,
\p
i_{i+1}(s))
\g
eq V^{
\p
i_{i}}(s)$ 意味着对于所有状态 $s$,$V^{
\p
i_{i+1}}(s)
\g
eq V^{
\p
i_{i}}(s)$。证明完毕。$
\d
iamondsuit$
根据策略提升定理,我们知道 $Q^{
\p
i_i}(s,
\p
i_{i+1}(s))
\g
eq V^{
\p
i_{i}}(s)$ 意味着对于所有状态 $s$,$V^{
\p
i_{i+1}}(s)
\g
eq V^{
\p
i_{i}}(s)$。
证明完毕。$
\d
iamondsuit$
因此,如果我们基于当前的 $
\e
psilon$-贪婪策略进行 $
\e
psilon$-贪婪动作,我们的策略实际上是提升的。
因此,如果我们基于当前的 $
\e
psilon$-贪婪策略进行 $
\e
psilon$-贪婪动作,我们的策略实际上是提升的。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录