Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
大唐爆破僧
apachecn-dl-zh
提交
9c69ccc0
A
apachecn-dl-zh
项目概览
大唐爆破僧
/
apachecn-dl-zh
与 Fork 源项目一致
Fork自
OpenDocCN / apachecn-dl-zh
通知
1
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
A
apachecn-dl-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
9c69ccc0
编写于
1月 19, 2021
作者:
W
wizardforcel
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
2021-01-19 11:22:02
上级
f5eb66b4
变更
9
隐藏空白更改
内联
并排
Showing
9 changed file
with
9 addition
and
9 deletion
+9
-9
new/pt-tut-17/08.md
new/pt-tut-17/08.md
+1
-1
new/pt-tut-17/09.md
new/pt-tut-17/09.md
+1
-1
new/pt-tut-17/10.md
new/pt-tut-17/10.md
+1
-1
new/pt-tut-17/11.md
new/pt-tut-17/11.md
+1
-1
new/pt-tut-17/12.md
new/pt-tut-17/12.md
+1
-1
new/pt-tut-17/13.md
new/pt-tut-17/13.md
+1
-1
new/pt-tut-17/14.md
new/pt-tut-17/14.md
+1
-1
new/pt-tut-17/22.md
new/pt-tut-17/22.md
+1
-1
new/pt-tut-17/35.md
new/pt-tut-17/35.md
+1
-1
未找到文件。
new/pt-tut-17/08.md
浏览文件 @
9c69ccc0
...
...
@@ -2,7 +2,7 @@
> 原文:<https://pytorch.org/tutorials/beginner/examples_tensor/polynomial_numpy.html#sphx-glr-beginner-examples-tensor-polynomial-numpy-py>
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测
\(
y =
\
sin(x)
\)
从
\(
-pi
\)
到
\(
pi
\)
。
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测
\(
y =
\
sin(x)
\)
从
`-pi`
到
`pi`
。
此实现使用 numpy 手动计算正向传播,损耗和后向通过。
...
...
new/pt-tut-17/09.md
浏览文件 @
9c69ccc0
...
...
@@ -2,7 +2,7 @@
> 原文:<https://pytorch.org/tutorials/beginner/examples_tensor/polynomial_tensor.html#sphx-glr-beginner-examples-tensor-polynomial-tensor-py>
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测
\(
y =
\
sin(x)
\)
从
\(
-pi
\)
到
\(
pi
\)
。
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测
\(
y =
\
sin(x)
\)
从
`-pi`
到
`pi`
。
此实现使用 PyTorch 张量手动计算正向传播,损耗和后向通过。
...
...
new/pt-tut-17/10.md
浏览文件 @
9c69ccc0
...
...
@@ -2,7 +2,7 @@
> 原文:<https://pytorch.org/tutorials/beginner/examples_autograd/polynomial_autograd.html#sphx-glr-beginner-examples-autograd-polynomial-autograd-py>
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测
\(
y =
\
sin(x)
\)
从
\(
-pi
\)
到
\(
pi
\)
。
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测
\(
y =
\
sin(x)
\)
从
`-pi`
到
`pi`
。
此实现使用 PyTorch 张量上的运算来计算正向传播,并使用 PyTorch autograd 来计算梯度。
...
...
new/pt-tut-17/11.md
浏览文件 @
9c69ccc0
...
...
@@ -2,7 +2,7 @@
> 原文:<https://pytorch.org/tutorials/beginner/examples_autograd/polynomial_custom_function.html#sphx-glr-beginner-examples-autograd-polynomial-custom-function-py>
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测
\(
y =
\
sin(x)
\)
从
\(
-pi
\)
到
\(
pi
\)
。 而不是将多项式写为
\(
y = a + bx + cx ^ 2 + dx ^ 3
\)
,我们将多项式写为
\(
y = a + b P_3(c + dx)
\)
其中
\(
P_3(x )= rac {1} {2}
\
left(5x ^ 3-3x ight)
\)
是三次的
[
勒让德多项式
](
https://en.wikipedia.org/wiki/Legendre_polynomials
)
。
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测
\(
y =
\
sin(x)
\)
从
`-pi`
到
`pi`
。 而不是将多项式写为
\(
y = a + bx + cx ^ 2 + dx ^ 3
\)
,我们将多项式写为
\(
y = a + b P_3(c + dx)
\)
其中
\(
P_3(x )= rac {1} {2}
\
left(5x ^ 3-3x ight)
\)
是三次的
[
勒让德多项式
](
https://en.wikipedia.org/wiki/Legendre_polynomials
)
。
此实现使用 PyTorch 张量上的运算来计算正向传播,并使用 PyTorch autograd 来计算梯度。
...
...
new/pt-tut-17/12.md
浏览文件 @
9c69ccc0
...
...
@@ -2,7 +2,7 @@
> 原文:<https://pytorch.org/tutorials/beginner/examples_nn/polynomial_nn.html#sphx-glr-beginner-examples-nn-polynomial-nn-py>
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测
\(
y =
\
sin(x)
\)
从
\(
-pi
\)
到
\(
pi
\)
。
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测
\(
y =
\
sin(x)
\)
从
`-pi`
到
`pi`
。
此实现使用来自 PyTorch 的 nn 软件包来构建网络。 PyTorch autograd 使定义计算图和获取梯度变得容易,但是原始的 autograd 对于定义复杂的神经网络来说可能太低了。 这是 nn 软件包可以提供帮助的地方。 nn 包定义了一组模块,您可以将其视为神经网络层,该神经网络层从输入产生输出并且可能具有一些可训练的权重。
...
...
new/pt-tut-17/13.md
浏览文件 @
9c69ccc0
...
...
@@ -2,7 +2,7 @@
> 原文:<https://pytorch.org/tutorials/beginner/examples_nn/polynomial_optim.html#sphx-glr-beginner-examples-nn-polynomial-optim-py>
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测
\(
y =
\
sin(x)
\)
从
\(
-pi
\)
到
\(
pi
\)
。
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测
\(
y =
\
sin(x)
\)
从
`-pi`
到
`pi`
。
此实现使用来自 PyTorch 的 nn 软件包来构建网络。
...
...
new/pt-tut-17/14.md
浏览文件 @
9c69ccc0
...
...
@@ -2,7 +2,7 @@
> 原文:<https://pytorch.org/tutorials/beginner/examples_nn/polynomial_module.html#sphx-glr-beginner-examples-nn-polynomial-module-py>
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测
\(
y =
\
sin(x)
\)
从
\(
-pi
\)
到
\(
pi
\)
。
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测
\(
y =
\
sin(x)
\)
从
`-pi`
到
`pi`
。
此实现将模型定义为自定义 Module 子类。 每当您想要一个比现有模块的简单序列更复杂的模型时,都需要以这种方式定义模型。
...
...
new/pt-tut-17/22.md
浏览文件 @
9c69ccc0
...
...
@@ -16,7 +16,7 @@ GAN 是用于教授 DL 模型以捕获训练数据分布的框架,因此我们
现在,让我们从鉴别符开始定义一些在整个教程中使用的符号。 令
`x`
为代表图像的数据。
\(
D(x)
\)
是判别器网络,其输出
`x`
来自训练数据而不是生成器的(标量)概率。 在这里,由于我们要处理图像,因此
\(
D(x)
\)
的输入是 CHW 大小为 3x64x64 的图像。 直观地,当
`x`
来自训练数据时,
\(
D(x)
\)
应该为高,而当
`x`
来自发生器时,它应该为低。
\(
D(x)
\)
也可以被认为是传统的二分类器。
对于生成器的表示法,令
`z`
是从标准正态分布中采样的潜在空间向量。
\(
G(z)
\)
表示将隐向量
`z`
映射到数据空间的生成器函数。
`G`
的目标是估计训练数据来自(
\(
p_ {data}
\)
)的分布,以便它可以从该估计分布(
\(
p_g
\)
)生成假样本。
对于生成器的表示法,令
`z`
是从标准正态分布中采样的潜在空间向量。
\(
G(z)
\)
表示将隐向量
`z`
映射到数据空间的生成器函数。
`G`
的目标是估计训练数据来自(
\(
p_ {data}
\)
)的分布,以便它可以从该估计分布(
`p_g`
)生成假样本。
因此,
\(
D(G(z))
\)
是发生器
`G`
的输出是真实图像的概率(标量)。 如
[
Goodfellow 的论文
](
https://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf
)
中所述,
`D`
和
`G`
玩一个 minimax 游戏,其中
`D`
试图最大化其正确分类实物和假物(
\(
logD( x)
\)
),并且
`G`
尝试最小化
`D`
预测其输出为假的概率(
\(
log(1-D(G(g(x)))
\)
)。 从本文来看,GAN 损失函数为
...
...
new/pt-tut-17/35.md
浏览文件 @
9c69ccc0
...
...
@@ -400,7 +400,7 @@ class Mario(Mario):
#### 更新模型
当 Mario 从其重播缓冲区中采样输入时,我们计算
\(
TD_t
\)
和
\(
TD_e
\)
并反向传播该损耗
\(
Q_ {online}
\)
以更新其参数
\(\
theta_ {online}
\)
(
\
(
\
alpha
\)
是传递给
`optimizer`
的学习率
`lr`
)
当 Mario 从其重播缓冲区中采样输入时,我们计算
`TD_t`
和
`TD_e`
并反向传播该损耗
\(
Q_ {online}
\)
以更新其参数
\(\
theta_ {online}
\)
(
\
(
\
alpha
\)
是传递给
`optimizer`
的学习率
`lr`
)
\[\t
heta_{online}
\l
eftarrow
\t
heta_{online} +
\a
lpha
\n
abla(TD_e - TD_t)
\]
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录