提交 3f0f564a 编写于 作者: W wizardforcel

2020-12-22 14:37:54

上级 25b2733a
......@@ -132,7 +132,7 @@ Softmax 将是表示输出层中不同类别的概率的最佳激活函数,而
![](img/79a945ed-f72e-486f-9b76-d6a9a3ec21f2.png)
在训练过程中,小批量的梯度基于*(2)*给出的平均对数损失,其中`M`是所选的批量大小。 对于我们将结合验证准确性进行监视的验证日志丢失,`M`是验证集数据点的数量。 由于我们将在每个折叠中进行 **K 折叠交叉验证**,因此在每个折叠中我们将具有不同的验证数据集。
在训练过程中,小批量的梯度基于`(2)`给出的平均对数损失,其中`M`是所选的批量大小。 对于我们将结合验证准确性进行监视的验证日志丢失,`M`是验证集数据点的数量。 由于我们将在每个折叠中进行 **K 折叠交叉验证**,因此在每个折叠中我们将具有不同的验证数据集。
现在我们已经定义了训练方法,损失函数和验证指标,让我们继续进行数据探索和建模。
......
......@@ -66,7 +66,7 @@
![](img/d5a5fe04-9f29-433c-a9bf-83303d4e5232.png)
*(1)**P(t / s)*的公式可使用贝叶斯定理扩展如下:
`(1)`*P(t / s)*的公式可使用贝叶斯定理扩展如下:
![](img/f9bcb9c3-e8e5-4d9b-bddc-cf07222a55ee.png)
......@@ -130,7 +130,7 @@
![](img/9028a0b4-506c-49df-a783-869bb5c75426.png)
这里 *<sub>P</sub> (s <sub>i</sub> )= P(w <sub>i</sub> / w <sub>1</sub> w <sub>2</sub> …w <sub>i-1</sub> )*。 将*(1)**(4)*结合起来,困惑可以写成如下:
这里 *<sub>P</sub> (s <sub>i</sub> )= P(w <sub>i</sub> / w <sub>1</sub> w <sub>2</sub> …w <sub>i-1</sub> )*。 将`(1)``(4)`结合起来,困惑可以写成如下:
![](img/785a9853-f2d3-4c28-a718-aeb9e2fcb6de.png)
......@@ -146,7 +146,7 @@
![](img/a231a609-f58f-4faa-a081-64addf74b643.png)
对于`M`个单词的测试集,使用*(5)*的困惑如下:
对于`M`个单词的测试集,使用`(5)`的困惑如下:
![](img/ba0cff31-c3c7-49ec-9967-d48fdcdb8ae4.png)
......@@ -181,7 +181,7 @@
![](img/688b2388-8434-4d98-8d00-66ea374148b9.png)
现在,让我们将对齐方式作为两个成分的组合:失真`a[d]`和生育力`f[d]`*(1)*中的表达式可以重写如下:
现在,让我们将对齐方式作为两个成分的组合:失真`a[d]`和生育力`f[d]``(1)`中的表达式可以重写如下:
![](img/edaf41f6-4172-4397-b791-f714571e57ca.png) ![](img/546bd7e5-37e3-44ba-a006-3378e4664053.png)
......
......@@ -51,7 +51,7 @@ L2 范数下的重建损失可以表示为:
![](img/549bd16c-1bd7-4f76-b4c1-6179369f92c7.png)
结合*(3)**(4)*,我们可以获得将映像从域 A 映射到域 A 的总生成器成本`C_G[AB]`域 B,如下所示:
结合`(3)``(4)`,我们可以获得将映像从域 A 映射到域 A 的总生成器成本`C_G[AB]`域 B,如下所示:
![](img/581b9be4-661a-41e9-a9f3-597d1116c2c7.png) ![](img/7d74f982-9649-4c22-a18e-d20e9b27d51c.png)
......@@ -59,7 +59,7 @@ L2 范数下的重建损失可以表示为:
![](img/e8a983da-5a03-453d-8317-eff82e4164e6.png) ![](img/0812b062-6e92-4e91-b725-747ac4b61f31.png)
如果我们对两个域中的全部图像总数求和,则生成器损耗将由*(5)**(6),*之和给出,如下所示:
如果我们对两个域中的全部图像总数求和,则生成器损耗将由`(5)`*(6),*之和给出,如下所示:
![](img/bd4d5890-a506-4180-b680-4c842cca1286.png) ![](img/bcb0c1db-84a7-44ac-864c-4e7545fb6016.png)
......@@ -71,7 +71,7 @@ L2 范数下的重建损失可以表示为:
![](img/78578465-7cc8-40c5-9662-21aa263baa81.png)
结合*(8)**(9)*的总鉴别器成本由`C[D]`给出,如下:
结合`(8)``(9)`的总鉴别器成本由`C[D]`给出,如下:
![](img/8907ca7c-ae87-4a4b-80e3-37c4bfb678cc.png)
......
......@@ -9,7 +9,7 @@
* 沃森
* Google Cloud Vision
下图*图 7.1,*说明了这种应用程序在云上托管时的体系结构以及如何与移动设备交互:
下图“图 7.1,”说明了这种应用程序在云上托管时的体系结构以及如何与移动设备交互:
![](img/71528e0e-5829-47db-a724-312dc884f6f7.png)
......
......@@ -69,7 +69,7 @@ Q 值表也通过迭代`t`进行索引,因为代理只能查看到目前为止
# 深度 Q 学习
**深度 Q 学习**利用深度学习网络来学习 Q 值功能。 如下图所示,*图 9.3,*是深度 Q 学习网络的架构:
**深度 Q 学习**利用深度学习网络来学习 Q 值功能。 如下图所示,“图 9.3,”是深度 Q 学习网络的架构:
![](img/1d88ca46-491d-401e-b25b-975b8b0b7cf2.png)
......@@ -107,7 +107,7 @@ Q 值表也通过迭代`t`进行索引,因为代理只能查看到目前为止
深度 Q 学习的问题之一是我们使用相同的网络权重`W`估计目标和 Q 值。 结果,我们预测的 Q 值与目标 Q 值之间存在很大的相关性,因为它们都使用相同的权重变化。 这会使预测的 Q 值和目标 Q 值在训练的每个步骤中均发生偏移,从而导致振荡。
为了稳定这一点,我们使用原始网络的副本来估算目标 Q 值,并在步骤中以特定间隔从原始网络复制目标网络的权重。 深度 Q 学习网络的这种变体称为**双重深度 Q 学习**,通常会导致稳定的训练。 下图*图 9.4A**图 9.4B* 说明了双重深度 Q 学习的工作机制:
为了稳定这一点,我们使用原始网络的副本来估算目标 Q 值,并在步骤中以特定间隔从原始网络复制目标网络的权重。 深度 Q 学习网络的这种变体称为**双重深度 Q 学习**,通常会导致稳定的训练。 下图“图 9.4A”和“图 9.4B”说明了双重深度 Q 学习的工作机制:
![](img/fdc65bc4-4cac-4ca4-89e5-56c614299412.png)
......@@ -136,7 +136,7 @@ Q 值表也通过迭代`t`进行索引,因为代理只能查看到目前为止
现在,我们将研究实现一种自动驾驶的无人驾驶赛车,该赛车使用深度 Q 网络学习如何在赛道上自行驾驶。 驾驶员和汽车将充当代理,赛车场及其周围环境将充当环境。 我们将使用 OpenAI Gym `CarRacing-v0`框架作为环境。 状态和奖励将由环境呈现给代理,而代理将通过采取适当的行动对代理采取行动。 这些状态采用从汽车前面的摄像头拍摄的图像的形式。 环境接受的动作为三维矢量*a∈R <sup>3</sup>* 的形式,其中第一个分量用于左转,第二个分量用于前移 第三部分用于向右移动。 该代理将与环境交互并将交互转换为![](img/59a5c19d-76a5-4b71-949f-f1ea1d801766.png)形式的元组。 这些交互元组将用作我们的训练数据。
该架构将类似于我们在图右侧所示的架构(*图 9.4A**图 9.4B* )。
该架构将类似于我们在图右侧所示的架构(“图 9.4A”和“图 9.4B”)。
# 离散化深度 Q 学习的动作
......
......@@ -392,13 +392,13 @@ SVHN 是一个现实世界的数据集,由于它在对象识别算法中的使
通过这个**生成对抗网络****GAN**),我们将根据随机噪声生成房屋编号图像,并且生成的图像将与 SVHN 数据集中的图像非常相似。
回顾一下,在 GAN 中,我们有一个生成器(`G`)和一个鉴别器(`D`),它们针对损失函数彼此玩零和极小极大游戏。 随着时间的流逝,生成器和鉴别器的工作都会越来越好,直到我们到达一个固定点为止,两者都无法进一步改善。 该固定点是相对于损失函数的鞍点。 对于我们的应用,发生器 G 会将给定分布 *P(z)*的噪声`z`转换​​为门牌号图像`x`,以使 *x = G(z)*
回顾一下,在 GAN 中,我们有一个生成器(`G`)和一个鉴别器(`D`),它们针对损失函数彼此玩零和极小极大游戏。 随着时间的流逝,生成器和鉴别器的工作都会越来越好,直到我们到达一个固定点为止,两者都无法进一步改善。 该固定点是相对于损失函数的鞍点。 对于我们的应用,发生器 G 会将给定分布`P(z)`的噪声`z`转换​​为门牌号图像`x`,以使`x = G(z)`
生成的图像通过鉴别器`D`传递,鉴别器`D`尝试检测此生成的图像`x`为伪造,并从 SVHN 数据集中检测真实的门牌号码图像为真实。 同时,生成器将尝试创建图像 *x = G(z)*,以使鉴别器发现图像是真实的。 如果我们将真实图像标记为`1`,而将生成器生成的伪图像标记为`0`,则鉴别器将尝试在给定两个类别的分类器网络中最小化二进制交叉熵损失。 鉴别符`D`所导致的损耗可以写成如下:
生成的图像通过鉴别器`D`传递,鉴别器`D`尝试检测此生成的图像`x`为伪造,并从 SVHN 数据集中检测真实的门牌号码图像为真实。 同时,生成器将尝试创建图像`x = G(z)`,以使鉴别器发现图像是真实的。 如果我们将真实图像标记为`1`,而将生成器生成的伪图像标记为`0`,则鉴别器将尝试在给定两个类别的分类器网络中最小化二进制交叉熵损失。 鉴别符`D`所导致的损耗可以写成如下:
![](img/ae36b54b-0a7c-4c94-8c4b-4e5209859d44.png)
在前面的表达式中 *D(。)*是鉴别函数,其输出表示将图像标记为实数的可能性。 *P <sub>z</sub> (z)*表示随机变量噪声 *z,*的分布,而 *P <sub>X</sub> (x)*表示真实门牌号图像的分布。 *G(。)**D(。)*分别表示生成器网络功能和鉴别器网络功能。 这些参数可以通过网络的权重进行参数化,而网络的权重是我们为表示法的混乱而方便地跳过的。 如果我们用![](img/bf0dd083-8c73-4b7f-95bf-2dac7251d52d.png)表示发生器网络权重的参数,用![](img/5040a2b3-84b1-4d41-b866-77a741f6e3a4.png)表示鉴别器网络的权重,则鉴别器将学会使*(1)*相对于![](img/0aebd653-012b-4821-85d9-4cecc73c4091.png)的损失最小化,而 发电机将旨在使*(1)*与![](img/3803843a-e64f-4153-85e0-fea7a07d2755.png)的损失相同。 我们可以将*(1)*中优化的损耗称为效用函数,发生器和鉴别器都在参数方面进行了优化。 实用函数`U`可以根据生成器和鉴别器的参数来编写,如下所示:
在前面的表达式中`D(.)`是鉴别函数,其输出表示将图像标记为实数的可能性。`P[z](z)`表示随机变量噪声`z`的分布,而`P[X](x)`表示真实门牌号图像的分布。`G(.)``D(.)`分别表示生成器网络功能和鉴别器网络功能。 这些参数可以通过网络的权重进行参数化,而网络的权重是我们为表示法的混乱而方便地跳过的。 如果我们用![](img/bf0dd083-8c73-4b7f-95bf-2dac7251d52d.png)表示发生器网络权重的参数,用![](img/5040a2b3-84b1-4d41-b866-77a741f6e3a4.png)表示鉴别器网络的权重,则鉴别器将学会使`(1)`相对于![](img/0aebd653-012b-4821-85d9-4cecc73c4091.png)的损失最小化,而 发电机将旨在使`(1)`与![](img/3803843a-e64f-4153-85e0-fea7a07d2755.png)的损失相同。 我们可以将`(1)`中优化的损耗称为效用函数,发生器和鉴别器都在参数方面进行了优化。 实用函数`U`可以根据生成器和鉴别器的参数来编写,如下所示:
![](img/e18dcc4f-da73-459c-ae45-a767f0e05be9.png)
......@@ -410,7 +410,7 @@ SVHN 是一个现实世界的数据集,由于它在对象识别算法中的使
在参数空间中的某个点上,如果某个函数相对于某些参数而言是局部最大值,而对于其余参数而言是局部最小值,则该点称为**鞍点**。 因此,![](img/8195fdac-2bca-4575-94d8-7a5f5a223980.png)给出的点将成为效用函数![](img/4998ceaf-7b5f-455d-9cf7-080b90db54d2.png)的鞍点。 该鞍点是极小极大零和博弈的纳什均衡,对于生成器和鉴别器正在优化的效用,![](img/12eece45-0064-4857-9805-e36cd04fc28c.png)参数是最佳的。 就当前问题而言,生成器`G`会产生最困难的验证码,供鉴别器以![](img/2d483818-35f8-4b1c-85b9-c307097f6576.png)作为其参数进行检测。 同样,鉴别器最适合以![](img/525612b3-2ac2-4437-84d0-e054ce9fa1eb.png)作为参数来检测伪造的验证码。
具有鞍点的最简单功能是 *x <sup>2</sup> -y <sup>2</sup>* ,鞍点是原点:`(0,0)`
具有鞍点的最简单功能是`x^2 - y^2`,鞍点是原点:`(0,0)`
# 优化 GAN 损耗
......@@ -663,7 +663,7 @@ python captcha_gan.py train --dest_train '/home/santanu/Downloads/train_32x32.ma
# 培训期间验证码的质量
现在,让我们研究训练期间各个时期生成的验证码的质量。 以下是历时`5`(请参阅*图 10.7a* ),历时`51`(请参阅*图 10.7b* )和历时`100`之后的 CAPTCHA 图像。 *图 10.7c* )。 我们可以看到,随着训练的进行,CAPTCHA 图像的质量有所提高。 以下屏幕快照显示了在第 5 阶段生成的示例验证码的结果:
现在,让我们研究训练期间各个时期生成的验证码的质量。 以下是历时`5`(请参阅“图 10.7a”),历时`51`(请参阅“图 10.7b”)和历时`100`之后的 CAPTCHA 图像。 “图 10.7c”)。 我们可以看到,随着训练的进行,CAPTCHA 图像的质量有所提高。 以下屏幕快照显示了在第 5 阶段生成的示例验证码的结果:
![](img/809efb9e-7096-4cba-abe1-49d8bb9bc9ad.png)
......
......@@ -31,7 +31,7 @@
# 自举采样
许多集成学习方法都使用一种称为引导抽样的统计技术。 数据集的引导样本是另一个数据集,它是通过对原始数据集*中的观测值进行随机抽样并替换掉的*而获得的。
许多集成学习方法都使用一种称为引导抽样的统计技术。 数据集的引导样本是另一个数据集,它是通过对原始数据集中的观测值**随机抽样并替换掉**而获得的。
例如,该技术在统计中大量使用。 它用于估计样本统计量的标准误差,例如平均值或标准偏差。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册