提交 3a4d87b9 编写于 作者: W wizardforcel

2021-01-07 20:26:01

上级 812cd430
......@@ -67,15 +67,15 @@ GAN 的基本概念很简单。 但是,我们将发现的一件事是,最具
![](img/B14853_04_001.png) (Equation 4.1.1)
该方程只是标准的二进制交叉熵代价函数。 损失是正确识别真实数据![](img/B14853_04_003.png)的期望值与 1.0 正确识别合成数据![](img/B14853_04_003.png)的期望值之和。 日志不会更改本地最小值的位置。
该方程只是标准的二进制交叉熵代价函数。 损失是正确识别真实数据`1 - D(g(z))`的期望值与 1.0 正确识别合成数据`1 - D(g(z))`的期望值之和。 日志不会更改本地最小值的位置。
训练过程中将两个小批数据提供给判别器:
1. `x`,来自采样数据的实数据(换言之,![](img/B14853_04_004.png)),标签为 1.0
1. `x`,来自采样数据的实数据(换言之,`x ~ p_data`),标签为 1.0
1. ![](img/B14853_04_005.png),来自生成器的带有标签 0.0 的伪造数据
1. `x' = g(z)`,来自生成器的带有标签 0.0 的伪造数据
为了使的损失函数最小,将通过反向传播通过正确识别真实数据![](img/B14853_04_007.png)和合成数据![](img/B14853_04_008.png)来更新判别器参数![](img/B14853_04_006.png)。 正确识别真实数据等同于![](img/B14853_04_009.png),而正确分类伪造数据则与![](img/B14853_04_010.png)或![](img/B14853_04_011.png)相同。 在此等式中,`z`是生成器用来合成新信号的任意编码或噪声矢量。 两者都有助于最小化损失函数。
为了使的损失函数最小,将通过反向传播通过正确识别真实数据`D(x)`和合成数据`1 - D(g(z))`来更新判别器参数`θ^(D)`。 正确识别真实数据等同于`D(x) -> 1.0`,而正确分类伪造数据则与`D(g(z)) -> 0.0``1 - D(g(z)) -> 1.0`相同。 在此等式中,`z`是生成器用来合成新信号的任意编码或噪声矢量。 两者都有助于最小化损失函数。
为了训练发电机,GAN 将判别器和发电机损耗的总和视为零和博弈。 发电机损耗函数只是判别器损耗函数的负数:
......@@ -89,7 +89,7 @@ GAN 的基本概念很简单。 但是,我们将发现的一件事是,最具
![](img/B14853_04_014.png) (Equation 4.1.4)
有时,我们会假装合成数据是带有标签 1.0 的真实数据,以此来欺骗判别器。 通过最大化![](img/B14853_04_015.png),优化器将梯度更新发送到判别器参数,以将该合成数据视为真实数据。 同时,通过将![](img/B14853_04_016.png)的相关性减至最小,优化器将在上训练生成器的参数,从而欺骗识别器。 但是,实际上,判别器对将合成数据分类为伪造的预测很有信心,并且不会更新 GAN 参数。 此外,梯度更新很小,并且在传播到生成器层时已大大减小。 结果,生成器无法收敛。
有时,我们会假装合成数据是带有标签 1.0 的真实数据,以此来欺骗判别器。 通过最大化`θ^(D)`,优化器将梯度更新发送到判别器参数,以将该合成数据视为真实数据。 同时,通过将`θ^(G)`的相关性减至最小,优化器将在上训练生成器的参数,从而欺骗识别器。 但是,实际上,判别器对将合成数据分类为伪造的预测很有信心,并且不会更新 GAN 参数。 此外,梯度更新很小,并且在传播到生成器层时已大大减小。 结果,生成器无法收敛。
![](img/B14853_04_04.png)
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册