提交 9c69ccc0 编写于 作者: W wizardforcel

2021-01-19 11:22:02

上级 f5eb66b4
......@@ -2,7 +2,7 @@
> 原文:<https://pytorch.org/tutorials/beginner/examples_tensor/polynomial_numpy.html#sphx-glr-beginner-examples-tensor-polynomial-numpy-py>
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)\(-pi \)\(pi \)
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)`-pi``pi`
此实现使用 numpy 手动计算正向传播,损耗和后向通过。
......
......@@ -2,7 +2,7 @@
> 原文:<https://pytorch.org/tutorials/beginner/examples_tensor/polynomial_tensor.html#sphx-glr-beginner-examples-tensor-polynomial-tensor-py>
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)\(-pi \)\(pi \)
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)`-pi``pi`
此实现使用 PyTorch 张量手动计算正向传播,损耗和后向通过。
......
......@@ -2,7 +2,7 @@
> 原文:<https://pytorch.org/tutorials/beginner/examples_autograd/polynomial_autograd.html#sphx-glr-beginner-examples-autograd-polynomial-autograd-py>
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)\(-pi \)\(pi \)
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)`-pi``pi`
此实现使用 PyTorch 张量上的运算来计算正向传播,并使用 PyTorch autograd 来计算梯度。
......
......@@ -2,7 +2,7 @@
> 原文:<https://pytorch.org/tutorials/beginner/examples_autograd/polynomial_custom_function.html#sphx-glr-beginner-examples-autograd-polynomial-custom-function-py>
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)\(-pi \)\(pi \)。 而不是将多项式写为\(y = a + bx + cx ^ 2 + dx ^ 3 \),我们将多项式写为\(y = a + b P_3(c + dx)\)其中\(P_3(x )= rac {1} {2} \ left(5x ^ 3-3x ight)\)是三次的[勒让德多项式](https://en.wikipedia.org/wiki/Legendre_polynomials)
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)`-pi``pi`。 而不是将多项式写为\(y = a + bx + cx ^ 2 + dx ^ 3 \),我们将多项式写为\(y = a + b P_3(c + dx)\)其中\(P_3(x )= rac {1} {2} \ left(5x ^ 3-3x ight)\)是三次的[勒让德多项式](https://en.wikipedia.org/wiki/Legendre_polynomials)
此实现使用 PyTorch 张量上的运算来计算正向传播,并使用 PyTorch autograd 来计算梯度。
......
......@@ -2,7 +2,7 @@
> 原文:<https://pytorch.org/tutorials/beginner/examples_nn/polynomial_nn.html#sphx-glr-beginner-examples-nn-polynomial-nn-py>
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)\(-pi \)\(pi \)
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)`-pi``pi`
此实现使用来自 PyTorch 的 nn 软件包来构建网络。 PyTorch autograd 使定义计算图和获取梯度变得容易,但是原始的 autograd 对于定义复杂的神经网络来说可能太低了。 这是 nn 软件包可以提供帮助的地方。 nn 包定义了一组模块,您可以将其视为神经网络层,该神经网络层从输入产生输出并且可能具有一些可训练的权重。
......
......@@ -2,7 +2,7 @@
> 原文:<https://pytorch.org/tutorials/beginner/examples_nn/polynomial_optim.html#sphx-glr-beginner-examples-nn-polynomial-optim-py>
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)\(-pi \)\(pi \)
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)`-pi``pi`
此实现使用来自 PyTorch 的 nn 软件包来构建网络。
......
......@@ -2,7 +2,7 @@
> 原文:<https://pytorch.org/tutorials/beginner/examples_nn/polynomial_module.html#sphx-glr-beginner-examples-nn-polynomial-module-py>
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)\(-pi \)\(pi \)
经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)`-pi``pi`
此实现将模型定义为自定义 Module 子类。 每当您想要一个比现有模块的简单序列更复杂的模型时,都需要以这种方式定义模型。
......
......@@ -16,7 +16,7 @@ GAN 是用于教授 DL 模型以捕获训练数据分布的框架,因此我们
现在,让我们从鉴别符开始定义一些在整个教程中使用的符号。 令`x`为代表图像的数据。 \(D(x)\)是判别器网络,其输出`x`来自训练数据而不是生成器的(标量)概率。 在这里,由于我们要处理图像,因此\(D(x)\)的输入是 CHW 大小为 3x64x64 的图像。 直观地,当`x`来自训练数据时,\(D(x)\)应该为高,而当`x`来自发生器时,它应该为低。 \(D(x)\)也可以被认为是传统的二分类器。
对于生成器的表示法,令`z`是从标准正态分布中采样的潜在空间向量。 \(G(z)\)表示将隐向量`z`映射到数据空间的生成器函数。 `G`的目标是估计训练数据来自(\(p_ {data} \))的分布,以便它可以从该估计分布(\(p_g \))生成假样本。
对于生成器的表示法,令`z`是从标准正态分布中采样的潜在空间向量。 \(G(z)\)表示将隐向量`z`映射到数据空间的生成器函数。 `G`的目标是估计训练数据来自(\(p_ {data} \))的分布,以便它可以从该估计分布(`p_g`)生成假样本。
因此,\(D(G(z))\)是发生器`G`的输出是真实图像的概率(标量)。 如 [Goodfellow 的论文](https://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf)中所述,`D``G`玩一个 minimax 游戏,其中`D`试图最大化其正确分类实物和假物(\(logD( x)\)),并且`G`尝试最小化`D`预测其输出为假的概率(\(log(1-D(G(g(x)))\))。 从本文来看,GAN 损失函数为
......
......@@ -400,7 +400,7 @@ class Mario(Mario):
#### 更新模型
当 Mario 从其重播缓冲区中采样输入时,我们计算\(TD_t \)\(TD_e \)并反向传播该损耗\(Q_ {online} \)以更新其参数\(\ theta_ {online} \)\ \ alpha \)是传递给`optimizer`的学习率`lr`
当 Mario 从其重播缓冲区中采样输入时,我们计算`TD_t``TD_e`并反向传播该损耗\(Q_ {online} \)以更新其参数\(\ theta_ {online} \)\ \ alpha \)是传递给`optimizer`的学习率`lr`
\[\theta_{online} \leftarrow \theta_{online} + \alpha \nabla(TD_e - TD_t)\]
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册