提交 34761518 编写于 作者: W wizardforcel

2020-12-23 22:51:12

上级 92ffb0d4
......@@ -189,7 +189,7 @@ MIL 中涉及的步骤如下:
* 概念鉴别器
* 元学习者
概念生成器的作用是提取数据集中每个数据点的特征表示,捕获其高级概念,概念鉴别器的作用是识别和分类由概念生成器生成的概念,而 元学习者学习由概念生成器生成的概念。 先前的所有组件(即概念生成器,概念鉴别器和元学习器)都可以一起学习。 因此,我们通过将元学习与深度学习相集成来改善香草元学习。 我们的概念生成器随着新的传入数据而发展,因此我们可以将我们的框架视为终身学习系统。
概念生成器的作用是提取数据集中每个数据点的特征表示,捕获其高级概念,概念鉴别器的作用是识别和分类由概念生成器生成的概念,而 元学习者学习由概念生成器生成的概念。 先前的所有组件(即概念生成器,概念鉴别器和元学习器)都可以一起学习。 因此,我们通过将元学习与深度学习相集成来改善原始元学习。 我们的概念生成器随着新的传入数据而发展,因此我们可以将我们的框架视为终身学习系统。
但是这里到底发生了什么? 看下图; 如您所见,我们对一组任务进行采样,并将其提供给概念生成器,该概念生成器将学习概念(即嵌入),然后将这些概念提供给元学习器,后者将学习这些概念并将损失回馈给 概念生成器。 同时,我们还将一些外部数据集提供给概念生成器,概念生成器学习这些输入的概念并将这些概念发送给概念识别器。 概念识别器预测这些概念的标签,计算损失,然后将损失发送回概念生成器。 通过这样做,我们增强了概念生成器概括概念的能力:
......
......@@ -31,7 +31,7 @@
2. 我们为每个数据点计算嵌入以学习特征。
3. 一旦我们了解了每个数据点的嵌入,就可以将每个类中数据点的均值嵌入并形成类原型。 因此,类原型基本上就是在类中数据点的平均嵌入。
4. 在高斯原型网络中,连同为数据点生成嵌入,我们在它们周围添加一个置信区域,该区域由高斯协方差矩阵表征。 拥有置信区域有助于表征单个数据点的质量,并且对于嘈杂且不太均匀的数据很有用。
5. 高斯原型网络与香草原型网络的不同之处在于,在香草原型网络中,我们仅学习数据点的嵌入,但在高斯原型网络中,除了学习嵌入之外,我们还为其添加了置信区域。
5. 高斯原型网络与原始原型网络的不同之处在于,在原始原型网络中,我们仅学习数据点的嵌入,但在高斯原型网络中,除了学习嵌入之外,我们还为其添加了置信区域。
6. 半径和对角线是高斯原型网络中使用的协方差矩阵的不同组成部分。
# 第 4 章:使用 TensorFlow 的关系和匹配网络
......
......@@ -66,7 +66,7 @@ I2A 的架构如下:
# 从演示中进行深度 Q 学习
我们已经了解了很多有关 DQN 的知识。 我们从香草 DQN 开始,然后看到了各种改进,例如双重 DQN,决斗的网络架构和优先级的经验回放。 我们还学会了构建 DQN 来玩 Atari 游戏。 我们将代理与环境的交互存储在经验缓冲区中,并使代理从这些经验中学习。 但是问题是,我们花了很多培训时间来提高性能。 对于在模拟环境中学习,这很好,但是当我们让代理在现实环境中学习时,会引起很多问题。 为了克服这个问题,谷歌公司 DeepMind 的研究人员在演示(**DQfd**)的基础上,对 DQN 进行了改进,称为**深度 Q 学习**
我们已经了解了很多有关 DQN 的知识。 我们从原始 DQN 开始,然后看到了各种改进,例如双重 DQN,决斗的网络架构和优先级的经验回放。 我们还学会了构建 DQN 来玩 Atari 游戏。 我们将代理与环境的交互存储在经验缓冲区中,并使代理从这些经验中学习。 但是问题是,我们花了很多培训时间来提高性能。 对于在模拟环境中学习,这很好,但是当我们让代理在现实环境中学习时,会引起很多问题。 为了克服这个问题,谷歌公司 DeepMind 的研究人员在演示(**DQfd**)的基础上,对 DQN 进行了改进,称为**深度 Q 学习**
如果我们已经有了一些演示数据,则可以将这些演示直接添加到经验回放缓冲区中。 例如,考虑一个学习玩 Atari 游戏的特工。 如果我们已经有了一些演示数据来告诉我们的代理,哪个状态更好,哪个动作可以提供良好的回报,那么代理可以直接使用此数据进行学习。 即使是少量的演示,也可以提高智能体的表现并最大程度地减少培训时间。 由于演示的数据将直接添加到优先经验重放缓冲区中,因此代理可以从演示数据中使用的数据量以及代理可以从其自己的交互中用于学习的数据量将由优先经验重放来控制 缓冲,因为经验将被优先考虑。
......@@ -76,7 +76,7 @@ DQfd 中的损失函数将是各种损失的总和。 为了防止我们的代
# 事后经验回放
我们已经了解了如何在 DQN 中使用经验回放来避免相关经验。 此外,我们了解到,优先经验回放是对香草经验回放的一种改进,因为它优先考虑 TD 错误的每个经验。 现在,我们将研究由 OpenAI 研究人员提出的一种用于处理稀疏奖励的名为**事后经验回放****HER**)的新技术。 您还记得如何学习骑自行车吗? 第一次尝试时,您将无法正确平衡自行车。 您可能多次无法正确平衡。 但是,所有这些失败并不意味着您没有学到任何东西。 失败会教你如何不平衡自行车。 即使您没有学会骑自行车(目标),您也学习了一个不同的目标,即,您学会了如何不平衡自行车。 这是我们人类学习的方式,对吗? 我们从失败中学习,这就是事后回顾经验的想法。
我们已经了解了如何在 DQN 中使用经验回放来避免相关经验。 此外,我们了解到,优先经验回放是对原始经验回放的一种改进,因为它优先考虑 TD 错误的每个经验。 现在,我们将研究由 OpenAI 研究人员提出的一种用于处理稀疏奖励的名为**事后经验回放****HER**)的新技术。 您还记得如何学习骑自行车吗? 第一次尝试时,您将无法正确平衡自行车。 您可能多次无法正确平衡。 但是,所有这些失败并不意味着您没有学到任何东西。 失败会教你如何不平衡自行车。 即使您没有学会骑自行车(目标),您也学习了一个不同的目标,即,您学会了如何不平衡自行车。 这是我们人类学习的方式,对吗? 我们从失败中学习,这就是事后回顾经验的想法。
让我们考虑本文中给出的相同示例。 如图所示,查看 FetchSlide 环境。 在这种环境下的目标是移动机械臂并在桌子上滑动冰球以击中目标,这是一个红色的小圆圈(来自[的图表 https://blog.openai.com/ingredients-for-robotics-research /](https://blog.openai.com/ingredients-for-robotics-research/) ):
......
......@@ -85,7 +85,7 @@
# 第九章
1. DRQN 利用**循环神经网络****RNN**),其中 DQN 利用香草神经网络。
1. DRQN 利用**循环神经网络****RNN**),其中 DQN 利用原始神经网络。
2. 当可以部分观察 MDP 时,不使用 DQN。
3. 请参阅“DRQN 的Doom”部分。
4. 与 DRQN 不同,DARQN 利用注意力机制。
......
......@@ -14,7 +14,7 @@
第 3 章,“神经机器翻译”涵盖了**循环神经网络****RNN**)架构的基础。 我们还将学习三种不同的机器翻译系统:基于规则的机器翻译,统计机器翻译和神经机器翻译。
第 4 章,“在 GAN 中使用 GAN” 进行时尚行业中的样式迁移,说明如何创建智能 AI 模型以生成具有与给定手袋相似样式的鞋子,反之亦然。 我们将使用 Vanilla GAN 通过 GAN 的定制版本(例如 DiscoGAN 和 CycleGAN)来实施项目。
第 4 章,“在 GAN 中使用 GAN” 进行时尚行业中的样式迁移,说明如何创建智能 AI 模型以生成具有与给定手袋相似样式的鞋子,反之亦然。 我们将使用原始 GAN 通过 GAN 的定制版本(例如 DiscoGAN 和 CycleGAN)来实施项目。
第 5 章,“视频字幕应用程序”讨论了 CNN 和 LSTM 在视频字幕中的作用,并说明了如何利用序列到视频(视频到文本)架构来构建视频字幕系统。
......@@ -45,9 +45,9 @@
下载文件后,请确保使用以下最新版本解压缩或解压缩文件夹:
* Windows 的 WinRAR / 7-Zip
* Mac 版 Zipeg / iZip / UnRarX
* 适用于 Linux 的 7-Zip / PeaZip
* Windows 的 WinRAR/7-Zip
* Mac 版 Zipeg/iZip/UnRarX
* 适用于 Linux 的 7-Zip/PeaZip
本书的代码包也托管在 [GitHub](https://github.com/PacktPublishing/Intelligent-Projects-using-Python) 上。 如果代码有更新,它将在现有的 GitHub 存储库中进行更新。
......
......@@ -10,7 +10,7 @@
许多人会认为机器永远无法达到人类的智能水平,因为用来学习或执行智能任务的 AI 逻辑是由人类编程的,并且它们缺乏人类所拥有的意识和自我意识。 但是,一些研究人员提出了另一种想法,即人类意识和自我意识就像无限循环程序,可以通过反馈从周围的环境中学习。 因此,也有可能将意识和自我意识编程到机器中。 但是,就目前而言,我们将把 AI 的这一哲学方面再留一天,并简单地讨论我们所知道的 AI。
简而言之,AI 可以定义为机器(通常是计算机或机器人)以类人的智力执行任务的能力,例如具有推理,学习经验,归纳,破译含义和拥有的能力等属性。 视觉感知。 我们将坚持这个更实际的定义,而不是关注 AI 效应所带来的哲学内涵以及 AI 奇异性的前景。 尽管可能存在关于 AI 可以实现和不能实现的争论,但基于 AI 的系统的最新成功故事却令人 over 目。 下图描述了 AI 的一些较新的主流应用程序:
简而言之,AI 可以定义为机器(通常是计算机或机器人)以类人的智力执行任务的能力,例如具有推理,学习经验,归纳,破译含义和拥有的能力等属性。 视觉感知。 我们将坚持这个更实际的定义,而不是关注 AI 效应所带来的哲学内涵以及 AI 奇异性的前景。 尽管可能存在关于 AI 可以实现和不能实现的争论,但基于 AI 的系统的最新成功故事却令人目。 下图描述了 AI 的一些较新的主流应用程序:
![](img/623d9065-122c-4066-bfed-634f7ac3cd75.png)
......@@ -82,7 +82,7 @@
# 神经激活单位
取决于架构和当前的问题,在神经网络中使用了几种神经激活单元。 我们将讨论最常用的激活函数,因为它们在确定网络架构和性能方面起着重要作用。 线性和 S 形单位激活函数主要用于人工神经网络,直到 Hinton 等人发明的**整流线性单元****ReLUs**)彻底改变了神经网络的性能。
取决于架构和当前的问题,在神经网络中使用了几种神经激活单元。 我们将讨论最常用的激活函数,因为它们在确定网络架构和性能方面起着重要作用。 线性和 Sigmoid 单元激活函数主要用于人工神经网络,直到 Hinton 等人发明的**整流线性单元****ReLUs**)彻底改变了神经网络的性能。
# 线性激活单元
......@@ -106,13 +106,13 @@
![](img/f54ce333-0cdb-400f-b9d1-22d60475291f.png)
图 1.6:Sigmoid激活函数
图 1.6:Sigmoid 激活函数
自然界中任何复杂的过程通常在输入输出关系上都是非线性的,因此,我们需要非线性激活函数通过神经网络对其进行建模。 两类分类的神经网络的输出概率通常由 S神经单元的输出给定,因为它的输出值从零到一。 输出概率可以表示如下:
自然界中任何复杂的过程通常在输入输出关系上都是非线性的,因此,我们需要非线性激活函数通过神经网络对其进行建模。 两类分类的神经网络的输出概率通常由 Sigmoid 神经单元的输出给定,因为它的输出值从零到一。 输出概率可以表示如下:
![](img/4e502901-d686-46cf-ba1c-e0b11d2c2707.png)
在这里,`x`代表输出层中 S单元的总输入量。
在这里,`x`代表输出层中 Sigmoid 单元的总输入量。
# 双曲正切激活函数
......@@ -126,11 +126,11 @@ tanh 激活函数输出的值在`[-1, 1]`范围内,如下图所示:
图 1.7:Tanh 激活函数
需要注意的一件事是 S和 tanh 激活函数在很小的输入范围内都是线性的,超过该范围输出就会饱和。 在饱和区,激活函数(相对于输入)的梯度非常小或接近零; 这意味着它们非常容易消失梯度问题。 正如您将在后面看到的那样,神经网络将从反向传播方法中学习,在该方法中,层的梯度取决于后续层中直至最终输出层中激活单元的梯度。 因此,如果激活单元中的单元在饱和区域中工作,则将更少的误差反向传播到神经网络的早期层。 神经网络通过利用梯度来最小化预测误差,以学习权重和偏差(`W`)。 这意味着,如果梯度很小或消失为零,则神经网络将无法正确学习这些权重。
需要注意的一件事是 Sigmoid 和 tanh 激活函数在很小的输入范围内都是线性的,超过该范围输出就会饱和。 在饱和区,激活函数(相对于输入)的梯度非常小或接近零; 这意味着它们非常容易消失梯度问题。 正如您将在后面看到的那样,神经网络将从反向传播方法中学习,在该方法中,层的梯度取决于后续层中直至最终输出层中激活单元的梯度。 因此,如果激活单元中的单元在饱和区域中工作,则将更少的误差反向传播到神经网络的早期层。 神经网络通过利用梯度来最小化预测误差,以学习权重和偏差(`W`)。 这意味着,如果梯度很小或消失为零,则神经网络将无法正确学习这些权重。
# 整流线性单元(ReLU)
当神经元的总输入大于零时,ReLU 的输出为线性,而当神经元的总输入为负时,ReLU 的输出为零。 这个简单的激活函数为神经网络提供了非线性,同时,它相对于总输入提供了一个恒定的梯度。 这个恒定的梯度有助于防止神经网络出现饱和或消失的梯度问题,如激活函数(如 S和 tanh 激活单元)所示。 ReLU 函数输出(如图“图 1.8”所示)可以表示如下:
当神经元的总输入大于零时,ReLU 的输出为线性,而当神经元的总输入为负时,ReLU 的输出为零。 这个简单的激活函数为神经网络提供了非线性,同时,它相对于总输入提供了一个恒定的梯度。 这个恒定的梯度有助于防止神经网络出现饱和或消失的梯度问题,如激活函数(如 Sigmoid 和 tanh 激活单元)所示。 ReLU 函数输出(如图“图 1.8”所示)可以表示如下:
![](img/f3c8b630-6ebc-4f71-903a-d192d27621f7.png)
......@@ -146,11 +146,11 @@ ReLU 的限制条件之一是其输入负值的零梯度。 这可能会减慢
![](img/66329819-1528-4067-afc8-bf3e505ecb09.png)
将为泄漏的 ReLU 激活函数提供![](img/7e701921-1d53-4bbb-9ed7-e386eacc553c.png)参数,而对于参数 ReLU,![](img/21c3900a-a283-44ba-b15e-21d1faf0b243.png)是神经网络将通过训练学习的参数。 下图显示了泄漏的 ReLU 激活函数的输出:
将为LReLU 激活函数提供![](img/7e701921-1d53-4bbb-9ed7-e386eacc553c.png)参数,而对于参数 ReLU,![](img/21c3900a-a283-44ba-b15e-21d1faf0b243.png)是神经网络将通过训练学习的参数。 下图显示了LReLU 激活函数的输出:
![](img/908a6fec-a34a-4e27-a0a4-27dd3b5d84cc.png)
图 1.9:泄漏的 ReLU 激活函数
图 1.9:LReLU 激活函数
# softmax 激活单元
......@@ -186,7 +186,7 @@ ReLU 的限制条件之一是其输入负值的零梯度。 这可能会减慢
图 1.10:说明反向传播的网络
令网络输入为二维向量, `x = [x1, x2]^T`, 输出标签和预测分别为 ![](img/df5f56eb-23da-40f8-900d-1da3eecfb2d3.png) 和 ![](img/b3cffb09-935e-4bc2-a6d1-330919797695.png) 。 另外,我们假设神经网络中的所有激活单元都是 S。 让广义权重将层`l-1`中的任何单元`i`连接到层`l`中的单元`j`表示为 ![](img/29efb244-a597-41d7-baee-9826abbacd0b.png) ,而`l`层中任何单位`i`的偏置应表示为 ![](img/99d2725a-1b33-4aea-a0b1-7631b21edbc1.png) 。 让我们得出一个数据点的梯度; 总梯度可以计算为训练(或小批量)中使用的所有数据点的总和。 如果输出是连续的,则可以选择损失函数`C`作为预测误差的平方:
令网络输入为二维向量, `x = [x1, x2]^T`, 输出标签和预测分别为 ![](img/df5f56eb-23da-40f8-900d-1da3eecfb2d3.png) 和 ![](img/b3cffb09-935e-4bc2-a6d1-330919797695.png) 。 另外,我们假设神经网络中的所有激活单元都是 Sigmoid。 让广义权重将层`l-1`中的任何单元`i`连接到层`l`中的单元`j`表示为 ![](img/29efb244-a597-41d7-baee-9826abbacd0b.png) ,而`l`层中任何单位`i`的偏置应表示为 ![](img/99d2725a-1b33-4aea-a0b1-7631b21edbc1.png) 。 让我们得出一个数据点的梯度; 总梯度可以计算为训练(或小批量)中使用的所有数据点的总和。 如果输出是连续的,则可以选择损失函数`C`作为预测误差的平方:
![](img/bb6a924b-9414-4008-b7a8-ee6cc0d11649.png)
......@@ -232,7 +232,7 @@ ReLU 的限制条件之一是其输入负值的零梯度。 这可能会减慢
![](img/ff5d7314-4a37-458c-933b-25a883f492bd.png)
由于神经网络的所有单元(输出单元除外)均为 S激活函数,因此情况如下:
由于神经网络的所有单元(输出单元除外)均为 Sigmoid 激活函数,因此情况如下:
![](img/665d5aaa-1fa7-4ab0-a7a8-5961d7faaf77.png)
......@@ -262,13 +262,13 @@ ReLU 的限制条件之一是其输入负值的零梯度。 这可能会减慢
当卷积运算涉及在输入的每个位置上覆盖滤波器内核时,该卷积被称为跨度为 1。 如果我们选择在覆盖过滤器内核时跳过一个位置,那么卷积将以两个步幅执行。 通常,如果将`n`位置跳过而将滤波器内核覆盖在输入上,则表示卷积以`n + 1`的步幅执行。 大于 1 的步幅会减小卷积输出的空间尺寸。
通常,卷积层之后是池化层,池化层基本上总结了由池化的接收场确定的邻域中的输出特征映射激活。 例如,一个 2 x 2 的接收场将收集四个相邻的输出特征映射激活的本地信息。 对于最大池操作,将选择四个激活的最大值作为输出,而对于平均池化,将选择四个激活的平均值。 合并降低了特征映射的空间分辨率。 例如,对于具有 2 x 2 接收场的 224 x 224 尺寸的特征映射池化操作,特征映射的空间尺寸将减小为 112 x 112
通常,卷积层之后是池化层,池化层基本上总结了由池化的接收场确定的邻域中的输出特征映射激活。 例如,一个`2 x 2`的接收场将收集四个相邻的输出特征映射激活的本地信息。 对于最大池操作,将选择四个激活的最大值作为输出,而对于平均池化,将选择四个激活的平均值。 合并降低了特征映射的空间分辨率。 例如,对于具有`2 x 2`接收场的`224 x 224`尺寸的特征映射池化操作,特征映射的空间尺寸将减小为`112 x 112`
要注意的一件事是,卷积运算减少了每层要学习的权重数。 例如,如果我们有一个空间尺寸为 224 x 224 的输入图像,而下一层的期望输出为尺寸为 224 x 224 的尺寸,那么对于具有完整连接的传统神经网络来说,要学习的权重数 是 224 x 224 x 224 x 224.对于具有相同输入和输出尺寸的卷积层,我们需要学习的只是滤波器内核的权重。 因此,如果我们使用 3 x 3 过滤器内核,我们只需要学习 9 个权重即可,而不是 224 x 224 x 224 x 224 权重。 这种简化是有效的,因为局部空间邻域中的图像和音频之类的结构之间具有高度相关性。
要注意的一件事是,卷积运算减少了每层要学习的权重数。 例如,如果我们有一个空间尺寸为`224 x 224`的输入图像,而下一层的期望输出为尺寸为` 224 x 224 `的尺寸,那么对于具有完整连接的传统神经网络来说,要学习的权重数是`224 x 224 x 224 x 224`。对于具有相同输入和输出尺寸的卷积层,我们需要学习的只是滤波器内核的权重。 因此,如果我们使用`3 x 3`过滤器内核,我们只需要学习 9 个权重即可,而不是`224 x 224 x 224 x 224`权重。 这种简化是有效的,因为局部空间邻域中的图像和音频之类的结构之间具有高度相关性。
输入图像经过多层卷积和池化操作。 随着网络的发展,特征映射的数量增加,而图像的空间分辨率降低。 在卷积池层的末端,要素图的输出被馈送到全连接层,然后是输出层。
输出单位取决于手头的任务。 如果执行回归,则输出激活单位是线性的,而如果是二进制分类问题,则输出单位是 S的。 对于多类别分类,输出层是 softmax 单位。
输出单位取决于手头的任务。 如果执行回归,则输出激活单位是线性的,而如果是二进制分类问题,则输出单位是 Sigmoid 的。 对于多类别分类,输出层是 softmax 单位。
在本书的所有图像处理项目中,我们都将使用一种或另一种形式的卷积神经网络。
......@@ -378,7 +378,7 @@ Figure 1.14: GAN architecture 
![](img/b9cb9aa1-7eac-4174-983d-cb5be41b1eff.png)
生成器将尝试最大化由`(1)`给出的相同成本函数。 这意味着,优化问题可以表示为具有效用函数 `U(G, D)`的 minimax 播放器,如下所示:
生成器将尝试最大化由`(1)`给出的相同成本函数。 这意味着,优化问题可以表示为具有效用函数 `U(G, D)`的 minimax 玩家,如下所示:
![](img/56db8673-21ba-456d-94a5-f78f8d33506b.png)
......@@ -398,7 +398,7 @@ Figure 1.14: GAN architecture 
![](img/f5932e0c-dc8c-4041-abe9-24e33bcfc95f.png)
对于固定的发电机分配,如果满足以下条件,则`G(x)`对于鉴别器的效用函数将最小。
对于固定的生成器分配,如果满足以下条件,则`G(x)`对于鉴别器的效用函数将最小。
![](img/ec1949f8-e469-4633-9aaf-d857c5f0831c.png)
......@@ -416,7 +416,7 @@ Figure 1.14: GAN architecture 
因此,我们可以看到生成器最小化![](img/18728b2c-5f24-4bbc-888d-541116e69eeb.png)等于最小化实际分布`P(x)`与生成器生成的样本分布之间的 Jensen Shannon 散度`G`(即`G(x)`)。
训练 GAN 并不是一个简单的过程,在训练这样的网络时我们需要考虑几个技术方面的考虑。 我们将使用高级 GAN 网络在第 4 章“使用 GANs* 的时装行业中的风格迁移”中构建跨域风格迁移应用程序。
训练 GAN 并不是一个简单的过程,在训练这样的网络时我们需要考虑几个技术方面的考虑。 我们将使用高级 GAN 网络在第 4 章“使用 GANs 的时装行业中的风格迁移”中构建跨域风格迁移应用程序。
# 强化学习
......@@ -424,7 +424,7 @@ Figure 1.14: GAN architecture 
![](img/13aa6565-1619-42b6-a595-a2bf486f0a6e.png)
图 1.15:强化学习模型中的 Agent 与环境交互
图 1.15:强化学习模型中的智能体与环境交互
# Q 学习
......@@ -488,7 +488,7 @@ Figure 1.14: GAN architecture 
图 1.18:使用预训练的 VGG 16 网络进行迁移学习
`x`表示的输入图像被馈送到**预训练的 VGG 16** 网络,以及`4096`维输出特征向量`x'`,是从最后一个全连接层中提取的。 提取的特征`x'`以及相应的类别标签`y`用于训练简单的分类网络,从而减少解决问题所需的数据。*
`x`表示的输入图像被馈送到**预训练的 VGG 16** 网络,以及`4096`维输出特征向量`x'`,是从最后一个全连接层中提取的。 提取的特征`x'`以及相应的类别标签`y`用于训练简单的分类网络,从而减少解决问题所需的数据。
我们将通过使用第 2 章,“迁移学习”中的迁移学习来解决医疗保健领域中的图像分类问题。
......
......@@ -110,7 +110,7 @@
如果我们观察二次权重的表达式`w[ij]`,我们可以看到,当实际标签与预测标签之间的差异较大时,权重的值会更高 更伟大。 由于类的序数性质,这是有道理的。 例如,让我们用类别标签 0 表示完美状态的眼睛; 患有轻度糖尿病性视网膜病的患者; 中度糖尿病视网膜病变伴两个; 并伴有严重的糖尿病性视网膜病变。 当轻度糖尿病性视网膜病被错误地分类为严重糖尿病性视网膜病而不是中度糖尿病性视网膜病时,这个二次项权重`w[ij]`将会更高。 这是有道理的,因为即使我们没有设法预测实际类别,我们也希望预测一个尽可能接近实际状况的状况。
我们将使用`sklearn.metrics.cohen_kappa_score``weights= "quadratic"` 来计算 kappa 得分。 权重越高,kappa 得分越低。
我们将使用`sklearn.metrics.cohen_kappa_score``weights= "quadratic"`来计算 kappa 得分。 权重越高,kappa 得分越低。
# 制定损失函数
......@@ -166,7 +166,7 @@ Softmax 将是表示输出层中不同类别的概率的最佳激活函数,而
# 预处理图像
不同类别的图像将存储在不同的文件夹中,因此可以轻松标记其类别。 我们将使用`Opencv`函数读取图像,并将其调整为不同的尺寸,例如 224 x 224 x3。我们将基于 ImageNet 数据集从每个图像的通道方向上减去平均像素强度。 这意味着减法将使糖尿病性视网膜病变图像达到与在其上训练了预训练模型的处理过的 ImageNet 图像相同的强度范围。 提出每个图像后,它们将存储在`numpy`数组中。 图像预处理功能可以定义如下:
不同类别的图像将存储在不同的文件夹中,因此可以轻松标记其类别。 我们将使用`Opencv`函数读取图像,并将其调整为不同的尺寸,例如`224 x 224 x3`。我们将基于 ImageNet 数据集从每个图像的通道方向上减去平均像素强度。 这意味着减法将使糖尿病性视网膜病变图像达到与在其上训练了预训练模型的处理过的 ImageNet 图像相同的强度范围。 提出每个图像后,它们将存储在`numpy`数组中。 图像预处理功能可以定义如下:
```py
def get_im_cv2(path,dim=224):
......@@ -285,7 +285,7 @@ InceptionV3 论文链接如下:
[《重新思考计算机视觉的起始架构》](https://arxiv.org/abs/1512.00567)
简而言之,`VGG16`是一个 16 层的 CNN,使用 3 x 3 滤波器和 2 x 2 接收场进行卷积。 整个网络使用的激活函数都是 ReLU。 由 Simonyan 和 Zisserman 开发的 VGG 架构是 2014 年 ILSVRC 竞赛的亚军。 `VGG16`网络由于其简单性而广受欢迎,它是从图像中提取特征的最受欢迎的网络。
简而言之,`VGG16`是一个 16 层的 CNN,使用`3 x 3`滤波器和`2 x 2`接收场进行卷积。 整个网络使用的激活函数都是 ReLU。 由 Simonyan 和 Zisserman 开发的 VGG 架构是 2014 年 ILSVRC 竞赛的亚军。 `VGG16`网络由于其简单性而广受欢迎,它是从图像中提取特征的最受欢迎的网络。
`ResNet50`是一种深层的 CNN,它实现了残余块的概念,与`VGG16`网络的概念完全不同。 经过一系列的卷积激活池操作之后,该块的输入再次被反馈到输出。 ResNet 架构是由 Kaiming He 等人开发的,尽管具有 152 层,但它不如 VGG 网络复杂。 该架构通过实现 3.57% 的前五位错误率赢得了 2015 年 ILSVRC 竞赛,这比该竞赛数据集上的人类水平性能要好。 通过检查目标是否在概率最高的五类预测中来计算前五个错误率。 原则上,ResNet 网络尝试学习残差映射,而不是直接从输出映射到输入,如下面的残差框图所示:
......@@ -335,7 +335,7 @@ def VGG16_pseudo(dim=224,freeze_layers=10,full_freeze='N'):
在以下代码块中定义了用于我们任务的`InceptionV3`网络。 需要注意的一件事是,由于`InceptionV3`是一个更深的网络,因此我们可以拥有更多的初始层。 在数据可用性方面,不训练每个模型中的所有层的想法还有另一个优势。 如果我们使用较少的数据训练,则整个网络的权重可能会导致过拟合。 冻结层会减少要训练的权重数,因此提供了一种形式的规则化。
由于初始层学习通用特征,而与问题的范围无关,因此它们是冻结的最佳层。 我们还在全连接层中使用了 dropout,以防止过拟合:
由于初始层学习通用特征,而与问题的范围无关,因此它们是冻结的最佳层。 我们还在全连接层中使用了丢弃,以防止过拟合:
```py
def inception_pseudo(dim=224,freeze_layers=30,full_freeze='N'):
......@@ -1002,7 +1002,7 @@ def inception_pseudo(dim=224,freeze_layers=30,full_freeze='N'):
一旦我们预测了回归分数,就将其舍入到最接近的严重性类别(零到四)。
# 使用 keras 顺序 utils 作为生成器
# 使用 keras `utils.sequence`作为生成器
Keras 具有一个名为`keras.utils.sequence()`的优秀批量生成器,可帮助您以极大的灵活性自定义批量创建。 实际上,使用`keras.utils.sequence()`可以设计整个周期流水线。 我们将在此回归问题中使用此实用程序以习惯该实用程序。 对于迁移学习问题,我们可以使用`keras.utils.sequence()`设计生成器类,如下所示:
......@@ -1193,7 +1193,7 @@ python TransferLearning_reg.py --path '/media/santanu/9eb9b6dc-b380-486e-b4fd-c4
Model saved to dest: {1: '/home/santanu/ML_DS_Catalog-/Transfer_Learning_DR/Regression/InceptionV3___1', 2: '/home/santanu/ML_DS_Catalog-/Transfer_Learning_DR/Regression/InceptionV3___2', 3: '/home/santanu/ML_DS_Catalog-/Transfer_Learning_DR/Regression/InceptionV3___3', 4: '/home/santanu/ML_DS_Catalog-/Transfer_Learning_DR/Regression/InceptionV3___4', 5: '/home/santanu/ML_DS_Catalog-/Transfer_Learning_DR/Regression/InceptionV3___5'}
```
如我们所见,对应于`5`折叠的`5`模型已保存在我们指定的 Regression 文件夹下。 接下来,我们可以对验证数据集进行推断,并查看回归模型的运行情况。 可以如下调用相同的 Python 脚本:
如我们所见,对应于`5`折叠的`5`模型已保存在我们指定的`Regression`文件夹下。 接下来,我们可以对验证数据集进行推断,并查看回归模型的运行情况。 可以如下调用相同的 Python 脚本:
```py
python TransferLearning_reg.py --path '/media/santanu/9eb9b6dc-b380-486e-b4fd-c424a325b976/book AI/Diabetic Retinopathy/Extra/assignment2_train_dataset/' --class_folders '["class0","class1","class2","class3","class4"]' --dim 224 --lr 1e-4 --batch_size 32 --model InceptionV3 --outdir '/home/santanu/ML_DS_Catalog-/Transfer_Learning_DR/Regression/' --mode validation --model_save_dest --'/home/santanu/ML_DS_Catalog-/Transfer_Learning_DR/Regression/model_dict.pkl' --folds 5
......
......@@ -102,7 +102,7 @@
![](img/b00765b5-99f5-4dc3-a9cd-32f3ae13a51f.png)
对于 bigram 模型,给定当前单词`t[1]`的下一个单词的条件概率为`t[2]`计算训练语料库中偶对`(t[1], t[2])`的总数,并根据出现的次数归一化 语料库中`t[1]`的含义:
对于二元模型,给定当前单词`t[1]`的下一个单词的条件概率为`t[2]`计算训练语料库中偶对`(t[1], t[2])`的总数,并根据出现的次数归一化 语料库中`t[1]`的含义:
![](img/4011e558-b4fc-468a-89cc-3ae457494668.png)
......@@ -110,7 +110,7 @@
![](img/a4e37492-f2ae-4999-b8d1-53d9afac5fba.png)
超出三字母组合模型通常会导致稀疏性。 即使对于双字母组模型,我们也可能会缺少几个双字母组的条件概率,因为它们没有出现在训练语料库中。 但是,那些缺失的二元组可能非常相关,并且估计其条件概率非常重要。 不用说,n-gram 模型倾向于估计出现在训练数据中的单词对的高条件概率,而忽略没有出现的单词。
超出三字母组合模型通常会导致稀疏性。 即使对于双字母组模型,我们也可能会缺少几个双字母组的条件概率,因为它们没有出现在训练语料库中。 但是,那些缺失的二元组可能非常相关,并且估计其条件概率非常重要。 不用说,`n`模型倾向于估计出现在训练数据中的单词对的高条件概率,而忽略没有出现的单词。
# 语言模型的困惑
......@@ -140,7 +140,7 @@
如果语言模型的训练语料也是`I love Machine Learning`,则测试集的概率为 1,导致对数概率为`0`,且困惑为`1`。 这意味着该模型可以完全确定地生成下一个单词。
另一方面,如果我们有一个更现实的训练语料库,其词汇量为`N`= 20,000,并且训练数据集在测试数据集上的困惑度为 100,那么平均而言, 为了预测序列中的下一个单词,我们将搜索范围从 20,000 个单词缩小到 100 个单词。
另一方面,如果我们有一个更现实的训练语料库,其词汇量为`N = 20,000`,并且训练数据集在测试数据集上的困惑度为 100,那么平均而言, 为了预测序列中的下一个单词,我们将搜索范围从 20,000 个单词缩小到 100 个单词。
让我们看一下最坏的情况,在这种情况下,我们设法建立一个模型,其中每个单词都与序列中的先前单词无关:
......@@ -150,7 +150,7 @@
![](img/ba0cff31-c3c7-49ec-9967-d48fdcdb8ae4.png)
如果我们像以前一样有`N`= 20,000,那么要预测序列中的任何单词,就需要考虑词汇表中的所有`N`个单词,因为它们都是一样的。 在这种情况下,我们无法减少单词的平均搜索空间来预测序列中的单词。
如果我们像以前一样有`N = 20,000`,那么要预测序列中的任何单词,就需要考虑词汇表中的所有`N`个单词,因为它们都是一样的。 在这种情况下,我们无法减少单词的平均搜索空间来预测序列中的单词。
# 翻译模型
......@@ -697,7 +697,7 @@ python MachineTranslation.py --path '/home/santanu/ML_DS_Catalog/Machine Transla
代替单热编码矢量,可以使用词矢量嵌入来表示维的密集空间中的单词,该空间比单热编码矢量低得多。 嵌入单词`w`的单词向量可以用`v[w] ∈ R^m`表示,其中`m`是词向量嵌入的维数。 如我们所见,虽然一个热编码矢量的每个分量只能占用{0,1}的二进制值,但词矢量嵌入的分量却可以占用任何实数,因此具有更密集的表示。 相似性和类比的概念也与词向量嵌入有关。
通常通过诸如连续词袋法,skip-gram,GloVe 等技术来训练词向量嵌入。 我们将不对它们的实现进行过多的介绍,但中心思想是以这样的方式定义词向量嵌入:将类似的词紧密放置在 m 维欧几里得空间中:
通常通过诸如连续词袋法,skip-gram,GloVe 等技术来训练词向量嵌入。 我们将不对它们的实现进行过多的介绍,但中心思想是以这样的方式定义词向量嵌入:将类似的词紧密放置在`m`维欧几里得空间中:
![](img/9f7522e1-949b-4004-b21d-4f95010db169.png)
......
此差异已折叠。
......@@ -39,7 +39,7 @@
从上图可以看出,从视频中顺序采样的图像经过预训练的卷积神经网络,并且最后一个全连接层中的`4,096`单元的激活为 输出。 如果将`t`时的视频图像表示为`x[t]`,并且最后一个全连接层的输出表示为`f[t] ∈ R^4096`,然后`f[t] = f[w](x[t])`。 此处,`W`表示直到最后一个全连接层的卷积神经网络的权重。
这些系列的输出功能`f[1], f[2], ..., f[t], ..., f[n]`可以作为循环神经网络的输入,该神经网络学习根据输入特征生成文本标题,如下图所示(“图 5.2”]):
这些系列的输出功能`f[1], f[2], ..., f[t], ..., f[n]`可以作为循环神经网络的输入,该神经网络学习根据输入特征生成文本标题,如下图所示(“图 5.2”):
![](img/c4301074-d0a6-499d-97fb-04b39f20d188.png)
......@@ -233,7 +233,7 @@ def get_clean_caption_data(self,text_path,feat_path):
return data
```
在已定义的`get_data`函数中,我们从`video_corpus.csv`文件中删除了所有非英语的字幕。 完成后,我们首先通过构建视频名称(作为`VideoID``Start``End`功能的串联)并在功能目录名称前添加前缀来形成视频功能的链接。 然后,我们删除所有未指向 features 目录中任何实际视频特征向量或具有无效非文本描述的视频语料库文件记录。
在已定义的`get_data`函数中,我们从`video_corpus.csv`文件中删除了所有非英语的字幕。 完成后,我们首先通过构建视频名称(作为`VideoID``Start``End`功能的串联)并在功能目录名称前添加前缀来形成视频功能的链接。 然后,我们删除所有未指向`features`目录中任何实际视频特征向量或具有无效非文本描述的视频语料库文件记录。
数据如下图所示输出(“图 5.6”):
......@@ -783,7 +783,7 @@ Epoch 99 is done. Saving the model ...
# 推理功能
在推理过程中,我们调用`build_generator`定义模型以及推理所需的其他 TensorFlow op,然后使用`tf.train.Saver.restoreutility`从训练后的模型中保存已保存的权重,以加载定义的模型。 一旦加载了模型并准备对每个测试视频进行推理,我们就从 CNN 中提取其对应的视频帧图像预处理特征并将其传递给模型进行推理:
在推理过程中,我们调用`build_generator`定义模型以及推理所需的其他 TensorFlow 操作,然后使用`tf.train.Saver.restoreutility`从训练后的模型中保存已保存的权重,以加载定义的模型。 一旦加载了模型并准备对每个测试视频进行推理,我们就从 CNN 中提取其对应的视频帧图像预处理特征并将其传递给模型进行推理:
```py
def inference(self):
......@@ -842,7 +842,7 @@ python Video_seq2seq.py process_main --path_prj '/media/santanu/9eb9b6dc-b380-48
![](img/654f2dd8-315e-4313-a3cd-5720be8ac811.png)
使用经过训练的模型对视频 0lh_UWF9ZP4_82_87.avi 进行推断
使用经过训练的模型对视频`0lh_UWF9ZP4_82_87.avi`进行推断
在以下屏幕截图中,我们说明了对另一个`video8MVo7fje_oE_139_144.avi`的推断结果:
......
......@@ -70,7 +70,7 @@
# 基于深度学习的潜在因素模型
“潜在协同过滤的深度学习”部分中讨论的基于深度学习的潜在因素模型可以如图 HTG2 图 6.4 所示进行设计:
“潜在协同过滤的深度学习”部分中讨论的基于深度学习的潜在因素模型可以如图 6.4 所示进行设计:
![](img/f686394a-db58-4ac8-937b-d66b473a96b7.png)
......@@ -212,9 +212,9 @@ test_ratings_df[test_ratings_df['userID'] == 1].sort_values(['rating','predictio
可以在[这个页面](https://github.com/PacktPublishing/Intelligent-Projects-using-Python/tree/master/Chapter06)上找到与深度学习方法潜在因子方法相关的代码。
# SVD ++
# SVD++
通常,SVD 不会捕获用户和数据中可能存在的项目偏差。 一种名为 SVD ++的方法考虑了潜在分解因子方法中的用户和项目偏见,并且在诸如 *Netflix Challenge* 之类的比赛中非常流行。
通常,SVD 不会捕获用户和数据中可能存在的项目偏差。 一种名为 SVD++ 的方法考虑了潜在分解因子方法中的用户和项目偏见,并且在诸如 *Netflix Challenge* 之类的比赛中非常流行。
进行基于潜在因素推荐的最常见方法是将用户配置文件定义为`u[i] ∈ R^k``b[i] ∈ R`,项目轮廓和偏差为`v[i] ∈ R^k``b[j] ∈ R`。 然后,将用户`i`对项目`j`提供的评分![](img/0cdbff49-855e-4e8b-83d9-9e15fd915288.png)定义如下:
......@@ -236,7 +236,7 @@ test_ratings_df[test_ratings_df['userID'] == 1].sort_values(['rating','predictio
`surprise`软件包具有 SVD++ 的良好实现。 在下一部分中,我们将在`100K movie lens`数据集上使用 SVD++ 训练模型,并查看性能指标。
# 电影镜头 100k 数据集上的 SVD ++训练模型
# 电影镜头 100k 数据集上的 SVD++ 训练模型
可以使用以下命令通过`conda`下载`surprise`软件包:
......@@ -244,7 +244,7 @@ test_ratings_df[test_ratings_df['userID'] == 1].sort_values(['rating','predictio
conda install -c conda-forge scikit-surprise
```
对应于 SVD ++的算法在`surprise`中被命名为`SVDpp`。 我们可以按以下方式加载所有必需的软件包:
对应于 SVD++ 的算法在`surprise`中被命名为`SVDpp`。 我们可以按以下方式加载所有必需的软件包:
```py
import numpy as np
......@@ -303,7 +303,7 @@ SVD++ results on the test set
RMSE: 0.9320
```
从前面的结果可以看出,SVD ++模型在 RMSE 为`0.93`的测试数据集上确实表现良好。 结果与我们在此之前训练的基于深度学习的模型潜在因子模型(支持`0.95`的 RMSE)相当。
从前面的结果可以看出,SVD++ 模型在 RMSE 为`0.93`的测试数据集上确实表现良好。 结果与我们在此之前训练的基于深度学习的模型潜在因子模型(支持`0.95`的 RMSE)相当。
在“用于推荐的受限玻尔兹曼机”部分中,我们将介绍用于构建推荐系统的受限玻尔兹曼机。 由于该方法可以扩展到大型数据集,因此在协同过滤中获得了很大的普及。 协同过滤域中的大多数数据集都很稀疏,从而导致困难的非凸优化问题。 与其他分解方法(例如 SVD)相比,RBM 在数据集中更不容易遭受此稀疏问题的困扰。
......@@ -347,7 +347,7 @@ RBM 的参数是可见层单位`i`与隐藏层单位之间的广义权重连接`
# 对比分歧
计算联合概率分布的期望值的一种方法是通过 Gibbs 采样从联合概率分布中生成很多样本,然后将样本的平均值作为期望值。 在吉布斯抽样中,可以以其余变量为条件对联合概率分布中的每个变量进行抽样。 由于可见单位是独立的,因此给定隐藏单位,反之亦然,因此您可以将隐藏单位采样为![](img/86849800-744f-4771-96a1-94246e7b9332.png),然后将可见单位激活给定隐藏单位为![](img/0738e0a3-6a59-46f7-96a1-dea1b0bc29f8.png)。 然后我们可以将样本![](img/c9b254f1-f757-4479-8744-0fed6b0d930d.png)作为从联合概率分布中抽取的样本。 这样,我们可以生成大量样本,例如`M`,并取其平均值来计算期望的期望值。 但是,在梯度下降的每个步骤中进行如此大量的采样将使训练过程变得令人无法接受的缓慢,因此,与其在梯度下降的每个步骤中计算许多样本的平均值,不如从联合概率中生成一个样本 表示整个联合概率分布中期望期望的分布:
计算联合概率分布的期望值的一种方法是通过吉布斯采样从联合概率分布中生成很多样本,然后将样本的平均值作为期望值。 在吉布斯抽样中,可以以其余变量为条件对联合概率分布中的每个变量进行抽样。 由于可见单位是独立的,因此给定隐藏单位,反之亦然,因此您可以将隐藏单位采样为![](img/86849800-744f-4771-96a1-94246e7b9332.png),然后将可见单位激活给定隐藏单位为![](img/0738e0a3-6a59-46f7-96a1-dea1b0bc29f8.png)。 然后我们可以将样本![](img/c9b254f1-f757-4479-8744-0fed6b0d930d.png)作为从联合概率分布中抽取的样本。 这样,我们可以生成大量样本,例如`M`,并取其平均值来计算期望的期望值。 但是,在梯度下降的每个步骤中进行如此大量的采样将使训练过程变得令人无法接受的缓慢,因此,与其在梯度下降的每个步骤中计算许多样本的平均值,不如从联合概率中生成一个样本 表示整个联合概率分布中期望期望的分布:
![](img/e1fb8a28-45d4-4ebd-b17c-861618cfd639.png)
......@@ -355,7 +355,7 @@ RBM 的参数是可见层单位`i`与隐藏层单位之间的广义权重连接`
如上图所示(“图 6.7”),我们从可见的输入`v^(t)`开始,并对隐藏层进行采样 根据条件概率分布`P(h / v = v^(t))`激活![](img/f6ddc0c8-b917-44aa-a6c8-dadd737358ab.png)。 再次,使用条件概率分布`P(v / h = h')`,我们对`v'`进行采样。 根据条件概率分布`P(h / v = v')`对隐藏单元的下一次采样给出![](img/2f29e0d4-e0c2-4c48-aa9f-9f3b52890d1b.png),然后使用![](img/af67a34a-3350-44c1-b5f8-9bb47f2c265a.png)对可见单元激活进行采样 给我们![](img/71ba3b2e-6fa9-482f-b01d-a3bd8bdac420.png)。 对于`v``h`,即![](img/a13d0854-7fa0-4a6f-a01b-d277a377c7eb.png)的整个联合概率分布,将样本![](img/bbe647d9-d45c-448f-8169-04ef6cc6a007.png)取为代表性样本。 相同的用于计算包含`v``h`的任何表达式的期望。 这种采样过程称为对比散度。
从可见输入开始,然后从条件分布`P(v / h)``P(v / h)`连续采样构成吉布斯采样的一个步骤,并为我们提供了一个样本 联合分布中的`v / h`。 代替在 Gibbs 采样的每个步骤中选择样本`v / h`,我们可以选择从条件概率分布中进行几次连续的采样迭代后再选择样本。 如果在吉布斯采样的`k`个步骤之后,选择了代表元素,则将对比散度称为`CD-k`。 “图 6.7”中所示的对比散度可以称为`CD-2`,因为我们是在经过两步 Gibbs 采样后才选择样本的。
从可见输入开始,然后从条件分布`P(v / h)``P(v / h)`连续采样构成吉布斯采样的一个步骤,并为我们提供了一个样本 联合分布中的`v / h`。 代替在吉布斯采样的每个步骤中选择样本`v / h`,我们可以选择从条件概率分布中进行几次连续的采样迭代后再选择样本。 如果在吉布斯采样的`k`个步骤之后,选择了代表元素,则将对比散度称为`CD-k`。 “图 6.7”中所示的对比散度可以称为`CD-2`,因为我们是在经过两步吉布斯采样后才选择样本的。
# 使用 RBM 的协同过滤
......@@ -389,7 +389,7 @@ RBM 的参数是可见层单位`i`与隐藏层单位之间的广义权重连接`
![](img/4486f0fa-b798-43eb-b87e-0522b99cba86.png)
在定义隐藏单元和可见单元的输出时,还有一件重要的事情是需要概率抽样,而不是将输出默认为具有最大概率的抽样。 如果给定可见单位的隐藏单位激活的概率为`P`,则统一生成`[0, 1]`范围内的随机数`r`,并且如果`P > r`,则隐藏单元激活设置为`true`。 该方案将确保在很长的一段时间内以概率`P`将激活设置为 true。 类似地,电影的可见单位是根据跨国公司发行给定隐藏单位的概率从跨国发行机构中采样的。 因此,如果对于特定电影,给定的隐藏单位激活为`(p[1], p[2], p[3], p[4], p[5])`,然后可以从多项式分布中抽样选择五个评分中的评分值, 其概率质量函数如下:
在定义隐藏单元和可见单元的输出时,还有一件重要的事情是需要概率抽样,而不是将输出默认为具有最大概率的抽样。 如果给定可见单位的隐藏单位激活的概率为`P`,则统一生成`[0, 1]`范围内的随机数`r`,并且如果`P > r`,则隐藏单元激活设置为`true`。 该方案将确保在很长的一段时间内以概率`P`将激活设置为`true`。 类似地,电影的可见单位是根据跨国公司发行给定隐藏单位的概率从跨国发行机构中采样的。 因此,如果对于特定电影,给定的隐藏单位激活为`(p[1], p[2], p[3], p[4], p[5])`,然后可以从多项式分布中抽样选择五个评分中的评分值, 其概率质量函数如下:
![](img/c23ff63c-d7c9-4531-b0b0-19c04bd9678e.png)
......@@ -474,11 +474,11 @@ python preprocess_ratings.py --path '/home/santanu/ML_DS_Catalog-/Collaborating
# 建立用于协同过滤的 RBM 网络
以下函数`_network`为协同过滤创建所需的 RBM 结构。 首先,我们定义输入的权重,偏差和占位符。 然后定义`sample_hidden``sample_visible`函数,以根据概率分别对隐藏的激活和可见的激活进行采样。 隐藏的单位是从 Sigmoid 函数提供的概率从伯努利分布中采样的,而与每个电影有关的可见单元是根据 softmax 函数提供的概率从多项分布中采样的。 无需创建 softmax 概率,因为`tf.multinomial`函数可以直接从 logit 采样,而不是实际概率。
以下函数`_network`为协同过滤创建所需的 RBM 结构。 首先,我们定义输入的权重,偏差和占位符。 然后定义`sample_hidden``sample_visible`函数,以根据概率分别对隐藏的激活和可见的激活进行采样。 隐藏的单位是从 Sigmoid 函数提供的概率从伯努利分布中采样的,而与每个电影有关的可见单元是根据 softmax 函数提供的概率从多项分布中采样的。 无需创建 softmax 概率,因为`tf.multinomial`函数可以直接从对率采样,而不是实际概率。
接下来,我们根据 Gibbs 采样定义对比差异的逻辑。 `gibbs_step`函数执行 Gibbs 采样的一个步骤,然后利用它来实现`k`阶的对比散度。
接下来,我们根据吉布斯采样定义对比差异的逻辑。 `gibbs_step`函数执行吉布斯采样的一个步骤,然后利用它来实现`k`阶的对比散度。
现在我们拥有所有必需的功能,我们将创建 TensorFlow 操作,以在给定可见输入的情况下对隐藏状态`self.h`进行采样,并在给定采样状态下对可见单位`self.x`进行采样。 我们还使用对比散度从 v 和 h 的联合概率分布(即`P(v,h/model)`)中抽取`(self.x_s,self.h_s)`作为代表性样本,以计算梯度中的不同期望项。
现在我们拥有所有必需的功能,我们将创建 TensorFlow 操作,以在给定可见输入的情况下对隐藏状态`self.h`进行采样,并在给定采样状态下对可见单位`self.x`进行采样。 我们还使用对比散度从`v``h`的联合概率分布(即`P(v,h/model)`)中抽取`(self.x_s,self.h_s)`作为代表性样本,以计算梯度中的不同期望项。
`_network`函数的最后一步基于梯度更新 RBM 模型的权重和偏差。 如我们先前所见,梯度基于给定可见层输入的隐藏层激活`self.h`以及通过对比发散得出的联合概率分布`P(v,h/model)`的代表性样本`(self.x_s,self.h_s)`
......
......@@ -398,7 +398,7 @@ SVHN 是一个现实世界的数据集,由于它在对象识别算法中的使
![](img/ae36b54b-0a7c-4c94-8c4b-4e5209859d44.png)
在前面的表达式中`D(.)`是鉴别函数,其输出表示将图像标记为实数的可能性。`P[z](z)`表示随机变量噪声`z`的分布,而`P[X](x)`表示真实门牌号图像的分布。`G(.)``D(.)`分别表示生成器网络功能和鉴别器网络功能。 这些参数可以通过网络的权重进行参数化,而网络的权重是我们为表示法的混乱而方便地跳过的。 如果我们用![](img/bf0dd083-8c73-4b7f-95bf-2dac7251d52d.png)表示发生器网络权重的参数,用![](img/5040a2b3-84b1-4d41-b866-77a741f6e3a4.png)表示鉴别器网络的权重,则鉴别器将学会使`(1)`相对于![](img/0aebd653-012b-4821-85d9-4cecc73c4091.png)的损失最小化,而 发电机将旨在使`(1)`与![](img/3803843a-e64f-4153-85e0-fea7a07d2755.png)的损失相同。 我们可以将`(1)`中优化的损耗称为效用函数,发生器和鉴别器都在参数方面进行了优化。 实用函数`U`可以根据生成器和鉴别器的参数来编写,如下所示:
在前面的表达式中`D(.)`是鉴别函数,其输出表示将图像标记为实数的可能性。`P[z](z)`表示随机变量噪声`z`的分布,而`P[X](x)`表示真实门牌号图像的分布。`G(.)``D(.)`分别表示生成器网络功能和鉴别器网络功能。 这些参数可以通过网络的权重进行参数化,而网络的权重是我们为表示法的混乱而方便地跳过的。 如果我们用![](img/bf0dd083-8c73-4b7f-95bf-2dac7251d52d.png)表示发生器网络权重的参数,用![](img/5040a2b3-84b1-4d41-b866-77a741f6e3a4.png)表示鉴别器网络的权重,则鉴别器将学会使`(1)`相对于![](img/0aebd653-012b-4821-85d9-4cecc73c4091.png)的损失最小化,而 生成器将旨在使`(1)`与![](img/3803843a-e64f-4153-85e0-fea7a07d2755.png)的损失相同。 我们可以将`(1)`中优化的损耗称为效用函数,发生器和鉴别器都在参数方面进行了优化。 实用函数`U`可以根据生成器和鉴别器的参数来编写,如下所示:
![](img/e18dcc4f-da73-459c-ae45-a767f0e05be9.png)
......@@ -432,7 +432,7 @@ SVHN 是一个现实世界的数据集,由于它在对象识别算法中的使
我们已经将生成器和鉴别器优化目标都转换为最小化问题。 鉴别器和生成器的优化都是使用梯度下降进行的,直到我们达到目标函数的鞍点。
# 发电机网络
# 生成器网络
生成器网络将吸收随机噪声,并尝试输出类似于 SVHN 图像的图像作为输出。 随机噪声是`100`维输入向量。 每个维度都是遵循标准正态分布的随机变量,平均值为`0`,标准偏差为`1`
......@@ -468,7 +468,7 @@ def generator(input_dim,alpha=0.2):
![](img/bcfebdf8-f4ff-46c4-aa47-050aea483200.png)
图 10.5:发电机组网络图
图 10.5:生成器组网络图
# 鉴别器网络
......@@ -511,9 +511,9 @@ def discriminator(img_dim,alpha=0.2):
为生成对抗网络建立培训流程并非一帆风顺,因为这需要很多技术方面的考虑。 我们定义了以下三个培训网络:
* 带有参数![](img/157d6e01-b76c-4084-a604-b1dfcf681cc4.png)发电机网络`g`
* 带有参数![](img/157d6e01-b76c-4084-a604-b1dfcf681cc4.png)生成器网络`g`
* 带有参数![](img/70de08ab-a253-4cc2-a37d-749c60e02794.png)的鉴别器网络`d`
* 权重为![](img/5bdbe09a-9d95-42a6-9e3e-29e75ff75b52.png)和![](img/7e2796b1-735d-4c67-992b-4c7dbb5409f8.png)的以`g_d`表示的组合发电机鉴别器网络
* 权重为![](img/5bdbe09a-9d95-42a6-9e3e-29e75ff75b52.png)和![](img/7e2796b1-735d-4c67-992b-4c7dbb5409f8.png)的以`g_d`表示的组合生成器鉴别器网络
生成器`g`创建`d`鉴别器将评估的伪造图像,并尝试将其标记为伪造。
......@@ -650,7 +650,7 @@ python captcha_gan.py train --dest_train '/home/santanu/Downloads/train_32x32.ma
| **参数** | **值** | **注释** |
| `batch_size` | `100` | 小型批次随机梯度下降的批次大小。 |
| `gen_input_dim` | `100` | 输入随机噪声矢量维。 |
| `gen_lr` | `0.0001` | 发电机学习率。 |
| `gen_lr` | `0.0001` | 生成器学习率。 |
| `gen_beta1` | `0.5` | `beta_1`是生成器的 Adam 优化器的参数。 |
| `dis_input_dim` | `(32,32,3)` | 辨别真假房屋号码图像的形状。 |
| `dis_lr` | `0.001` | 鉴别器网络的学习率。 |
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册