diff --git a/new/pt-tut-17/08.md b/new/pt-tut-17/08.md index 9951160b8943574cd968227e8d7584edff50e4a0..3e7f662c0f65ad6c9d787a8b4a404a86782e824d 100644 --- a/new/pt-tut-17/08.md +++ b/new/pt-tut-17/08.md @@ -2,7 +2,7 @@ > 原文: -经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)从\(-pi \)到\(pi \)。 +经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)从`-pi`到`pi`。 此实现使用 numpy 手动计算正向传播,损耗和后向通过。 diff --git a/new/pt-tut-17/09.md b/new/pt-tut-17/09.md index 0148052c0a9858dbea1f68941635c5beca17ddcd..8442cec66f090d3bda503eea4ca12859dda3ae3f 100644 --- a/new/pt-tut-17/09.md +++ b/new/pt-tut-17/09.md @@ -2,7 +2,7 @@ > 原文: -经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)从\(-pi \)到\(pi \)。 +经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)从`-pi`到`pi`。 此实现使用 PyTorch 张量手动计算正向传播,损耗和后向通过。 diff --git a/new/pt-tut-17/10.md b/new/pt-tut-17/10.md index 865a2cbc95b439447b8cfbc8ee6b5c3846282ee2..2d877f68fe365465d20fb767203b5be8a5dda47c 100644 --- a/new/pt-tut-17/10.md +++ b/new/pt-tut-17/10.md @@ -2,7 +2,7 @@ > 原文: -经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)从\(-pi \)到\(pi \)。 +经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)从`-pi`到`pi`。 此实现使用 PyTorch 张量上的运算来计算正向传播,并使用 PyTorch autograd 来计算梯度。 diff --git a/new/pt-tut-17/11.md b/new/pt-tut-17/11.md index 1afe8ea77359f65da1bb7be540896d3fd93447a1..a828813c0f2de1d49182980066f3b26628333a02 100644 --- a/new/pt-tut-17/11.md +++ b/new/pt-tut-17/11.md @@ -2,7 +2,7 @@ > 原文: -经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)从\(-pi \)到\(pi \)。 而不是将多项式写为\(y = a + bx + cx ^ 2 + dx ^ 3 \),我们将多项式写为\(y = a + b P_3(c + dx)\)其中\(P_3(x )= rac {1} {2} \ left(5x ^ 3-3x ight)\)是三次的[勒让德多项式](https://en.wikipedia.org/wiki/Legendre_polynomials)。 +经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)从`-pi`到`pi`。 而不是将多项式写为\(y = a + bx + cx ^ 2 + dx ^ 3 \),我们将多项式写为\(y = a + b P_3(c + dx)\)其中\(P_3(x )= rac {1} {2} \ left(5x ^ 3-3x ight)\)是三次的[勒让德多项式](https://en.wikipedia.org/wiki/Legendre_polynomials)。 此实现使用 PyTorch 张量上的运算来计算正向传播,并使用 PyTorch autograd 来计算梯度。 diff --git a/new/pt-tut-17/12.md b/new/pt-tut-17/12.md index b792c79573622809d42f1901bb3d7eccd2edca29..8e4630b4939701a1fe637333c713bdc970844eef 100644 --- a/new/pt-tut-17/12.md +++ b/new/pt-tut-17/12.md @@ -2,7 +2,7 @@ > 原文: -经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)从\(-pi \)到\(pi \)。 +经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)从`-pi`到`pi`。 此实现使用来自 PyTorch 的 nn 软件包来构建网络。 PyTorch autograd 使定义计算图和获取梯度变得容易,但是原始的 autograd 对于定义复杂的神经网络来说可能太低了。 这是 nn 软件包可以提供帮助的地方。 nn 包定义了一组模块,您可以将其视为神经网络层,该神经网络层从输入产生输出并且可能具有一些可训练的权重。 diff --git a/new/pt-tut-17/13.md b/new/pt-tut-17/13.md index 9891ef96570914b12fd711bce9d48f107603a6d5..2463b55667786dfa4c148811f029a51da0f0edd9 100644 --- a/new/pt-tut-17/13.md +++ b/new/pt-tut-17/13.md @@ -2,7 +2,7 @@ > 原文: -经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)从\(-pi \)到\(pi \)。 +经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)从`-pi`到`pi`。 此实现使用来自 PyTorch 的 nn 软件包来构建网络。 diff --git a/new/pt-tut-17/14.md b/new/pt-tut-17/14.md index 6d3ee7dae7c36d838452745ce4cecfbd6920cf23..648f665979c9a27b1a89f0b1c699214e6dcc129d 100644 --- a/new/pt-tut-17/14.md +++ b/new/pt-tut-17/14.md @@ -2,7 +2,7 @@ > 原文: -经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)从\(-pi \)到\(pi \)。 +经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测\(y = \ sin(x)\)从`-pi`到`pi`。 此实现将模型定义为自定义 Module 子类。 每当您想要一个比现有模块的简单序列更复杂的模型时,都需要以这种方式定义模型。 diff --git a/new/pt-tut-17/22.md b/new/pt-tut-17/22.md index 8f0c3be3bf01e539a7925531d17bc6b77df770fd..a1ad7386a746e311c0254157aa0019ed65a2882e 100644 --- a/new/pt-tut-17/22.md +++ b/new/pt-tut-17/22.md @@ -16,7 +16,7 @@ GAN 是用于教授 DL 模型以捕获训练数据分布的框架,因此我们 现在,让我们从鉴别符开始定义一些在整个教程中使用的符号。 令`x`为代表图像的数据。 \(D(x)\)是判别器网络,其输出`x`来自训练数据而不是生成器的(标量)概率。 在这里,由于我们要处理图像,因此\(D(x)\)的输入是 CHW 大小为 3x64x64 的图像。 直观地,当`x`来自训练数据时,\(D(x)\)应该为高,而当`x`来自发生器时,它应该为低。 \(D(x)\)也可以被认为是传统的二分类器。 -对于生成器的表示法,令`z`是从标准正态分布中采样的潜在空间向量。 \(G(z)\)表示将隐向量`z`映射到数据空间的生成器函数。 `G`的目标是估计训练数据来自(\(p_ {data} \))的分布,以便它可以从该估计分布(\(p_g \))生成假样本。 +对于生成器的表示法,令`z`是从标准正态分布中采样的潜在空间向量。 \(G(z)\)表示将隐向量`z`映射到数据空间的生成器函数。 `G`的目标是估计训练数据来自(\(p_ {data} \))的分布,以便它可以从该估计分布(`p_g`)生成假样本。 因此,\(D(G(z))\)是发生器`G`的输出是真实图像的概率(标量)。 如 [Goodfellow 的论文](https://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf)中所述,`D`和`G`玩一个 minimax 游戏,其中`D`试图最大化其正确分类实物和假物(\(logD( x)\)),并且`G`尝试最小化`D`预测其输出为假的概率(\(log(1-D(G(g(x)))\))。 从本文来看,GAN 损失函数为 diff --git a/new/pt-tut-17/35.md b/new/pt-tut-17/35.md index 53750ee68dfdf23efa6320b41d380e2c9019708d..8e4614cc58f0f4d6796d3fcfcb43f1fff8c3f7b9 100644 --- a/new/pt-tut-17/35.md +++ b/new/pt-tut-17/35.md @@ -400,7 +400,7 @@ class Mario(Mario): #### 更新模型 -当 Mario 从其重播缓冲区中采样输入时,我们计算\(TD_t \)和\(TD_e \)并反向传播该损耗\(Q_ {online} \)以更新其参数\(\ theta_ {online} \)(\ (\ alpha \)是传递给`optimizer`的学习率`lr`) +当 Mario 从其重播缓冲区中采样输入时,我们计算`TD_t`和`TD_e`并反向传播该损耗\(Q_ {online} \)以更新其参数\(\ theta_ {online} \)(\ (\ alpha \)是传递给`optimizer`的学习率`lr`) \[\theta_{online} \leftarrow \theta_{online} + \alpha \nabla(TD_e - TD_t)\]