提交 46fbf5a9 编写于 作者: W wizardforcel

2021-01-13 15:29:15

上级 db42a98f
...@@ -16,7 +16,7 @@ ...@@ -16,7 +16,7 @@
注意 注意
本章中提供的所有代码都可以在以下位置找到: [https://packt.live/38qLadV](https://packt.live/38qLadV) [本章中提供的所有代码都可以在以下位置找到](https://packt.live/38qLadV)
# 问题定义 # 问题定义
...@@ -62,7 +62,7 @@ ...@@ -62,7 +62,7 @@
注意 注意
本章其余部分将重点解决与信用卡使用有关的数据问题。 要下载将要使用的数据集,请转到 [http://archive.ics.uci.edu/ml/datasets/default+of+credit+card+clients](http://archive.ics.uci.edu/ml/datasets/default+of+credit+card+clients) ,单击**数据 文件夹**链接,然后下载 **.xls** 文件。 该数据集也可在本书的 GitHub 存储库中找到,网址为 [https://packt.live/38qLadV](https://packt.live/38qLadV) 本章其余部分将重点解决与信用卡使用有关的数据问题。 要下载将要使用的数据集,请转到[这里](http://archive.ics.uci.edu/ml/datasets/default+of+credit+card+clients),单击**数据 文件夹**链接,然后下载 **.xls** 文件。 [该数据集也可在本书的 GitHub 存储库中找到](https://packt.live/38qLadV)
## 探索数据集 ## 探索数据集
...@@ -462,9 +462,9 @@ o = F.softmax(self.linear2(z)) ...@@ -462,9 +462,9 @@ o = F.softmax(self.linear2(z))
注意 注意
要访问此特定部分的源代码,请参考 [https://packt.live/2VwWlgU](https://packt.live/2VwWlgU) 要访问此特定部分的源代码,请参考[这里](https://packt.live/2VwWlgU)
您也可以通过 [https://packt.live/2BrUWkD](https://packt.live/2BrUWkD) 在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。 您也可以通过[这里](https://packt.live/2BrUWkD)在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
这样,您就可以使用 PyTorch 的自定义模块成功构建神经网络体系结构。 现在,您可以继续学习有关训练深度学习模型的过程。 这样,您就可以使用 PyTorch 的自定义模块成功构建神经网络体系结构。 现在,您可以继续学习有关训练深度学习模型的过程。
...@@ -975,7 +975,7 @@ traced_script = torch.jit.trace(模型,示例) ...@@ -975,7 +975,7 @@ traced_script = torch.jit.trace(模型,示例)
注意 注意
要访问此特定部分的源代码,请参考 [https://packt.live/3icVgEF](https://packt.live/3icVgEF) 要访问此特定部分的源代码,请参考[这里](https://packt.live/3icVgEF)
本部分当前没有在线交互示例,需要在本地运行。 本部分当前没有在线交互示例,需要在本地运行。
......
...@@ -18,7 +18,7 @@ ...@@ -18,7 +18,7 @@
注意 注意
本章中提供的所有代码都可以在以下位置找到: [https://packt.live/3bg0KKP](https://packt.live/3bg0KKP) [本章中提供的所有代码都可以在以下位置找到](https://packt.live/3bg0KKP)
# 建立 CNN # 建立 CNN
...@@ -590,7 +590,7 @@ batch_size =批量大小) ...@@ -590,7 +590,7 @@ batch_size =批量大小)
注意 注意
要进一步探索该数据集,请访问以下 URL: [https://www.cs.toronto.edu/~kriz/cifar.html](https://www.cs.toronto.edu/~kriz/cifar.html) 要进一步探索该数据集,[请访问以下 URL](https://www.cs.toronto.edu/~kriz/cifar.html)
让我们看一下我们的场景。 您在一家人工智能公司工作,该公司根据客户需求开发定制模型。 您的团队当前正在创建一个模型,该模型可以区分车辆的图像和动物的图像,更具体地说,可以识别不同种类的动物和不同类型的车辆。 他们为您提供了包含 60,000 张图像的数据集以构建模型。 让我们看一下我们的场景。 您在一家人工智能公司工作,该公司根据客户需求开发定制模型。 您的团队当前正在创建一个模型,该模型可以区分车辆的图像和动物的图像,更具体地说,可以识别不同种类的动物和不同类型的车辆。 他们为您提供了包含 60,000 张图像的数据集以构建模型。
...@@ -668,7 +668,7 @@ batch_size =批量大小) ...@@ -668,7 +668,7 @@ batch_size =批量大小)
注意 注意
在本节中,将提到其中一些图像转换。 要获取所有可能的转换的完整列表,请访问 [https://pytorch.org/docs/stable/torchvision/transforms.html](https://pytorch.org/docs/stable/torchvision/transforms.html) 在本节中,将提到其中一些图像转换。 要获取所有可能的转换的完整列表,请访问[这里](https://pytorch.org/docs/stable/torchvision/transforms.html)
与在上一活动中使用的过程一样,将数据集归一化并将其转换为张量,执行数据扩充需要我们定义所需的转换,然后将其应用于数据集,如以下代码片段所示: 与在上一活动中使用的过程一样,将数据集归一化并将其转换为张量,执行数据扩充需要我们定义所需的转换,然后将其应用于数据集,如以下代码片段所示:
......
...@@ -16,7 +16,7 @@ ...@@ -16,7 +16,7 @@
注意 注意
本章中提供的所有代码都可以在以下位置找到: [https://packt.live/2yiR97z](https://packt.live/2yiR97z) [本章中提供的所有代码都可以在以下位置找到](https://packt.live/2yiR97z)
# 样式转移 # 样式转移
...@@ -28,7 +28,7 @@ ...@@ -28,7 +28,7 @@
注意 注意
可以在 GitHub 上的 [https://packt.live/2XEykpL](https://packt.live/2XEykpL) 上找到此图像。 可以在 [GitHub](https://packt.live/2XEykpL) 上找到此图像。
根据前面的图像,模型有两个输入:内容图像和样式图像。 内容是指图像的对象,而样式是指颜色和纹理。 结果,模型的输出应该是包含内容图像中的对象和样式图像的艺术外观的图像。 根据前面的图像,模型有两个输入:内容图像和样式图像。 内容是指图像的对象,而样式是指颜色和纹理。 结果,模型的输出应该是包含内容图像中的对象和样式图像的艺术外观的图像。
...@@ -64,7 +64,7 @@ VGG-19 是由 19 层组成的 CNN。 它使用 ImageNet 数据库中的数百万 ...@@ -64,7 +64,7 @@ VGG-19 是由 19 层组成的 CNN。 它使用 ImageNet 数据库中的数百万
注意 注意
要浏览 ImageNet 数据库,请访问以下 URL: [http://www.image-net.org/](http://www.image-net.org/) 要浏览 ImageNet 数据库,[请访问以下 URL](http://www.image-net.org/)
考虑到其深度,该网络能够从各种图像中识别出复杂的特征,这使其特别适用于样式转移问题,在这些问题中,特征提取对于不同阶段和不同目的至关重要。 考虑到其深度,该网络能够从各种图像中识别出复杂的特征,这使其特别适用于样式转移问题,在这些问题中,特征提取对于不同阶段和不同目的至关重要。
...@@ -129,7 +129,7 @@ transforms.ToPILImage()]) ...@@ -129,7 +129,7 @@ transforms.ToPILImage()])
对于本章中的练习和活动,您将需要安装 Python 3.7,Jupyter 6.0,Matplotlib 3.1,NumPy 1.17,Pillow 6.2 和 PyTorch 1.3+(最好是 PyTorch 1.4,有或没有 CUDA)(如[ *前言*)。 对于本章中的练习和活动,您将需要安装 Python 3.7,Jupyter 6.0,Matplotlib 3.1,NumPy 1.17,Pillow 6.2 和 PyTorch 1.3+(最好是 PyTorch 1.4,有或没有 CUDA)(如[ *前言*)。
在本书的 GitHub 存储库( [https://packt.live/2yiR97z](https://packt.live/2yiR97z)中,您将能够找到在本章中用于不同练习和活动的不同图像。 在本书的 [GitHub 存储库](https://packt.live/2yiR97z)中,您将能够找到在本章中用于不同练习和活动的不同图像。
1. Import all the packages that will be required to perform style transfer: 1. Import all the packages that will be required to perform style transfer:
...@@ -265,11 +265,11 @@ transforms.ToPILImage()]) ...@@ -265,11 +265,11 @@ transforms.ToPILImage()])
注意 注意
要访问此特定部分的源代码,请参考 [https://packt.live/2NQ6h0p](https://packt.live/2NQ6h0p) 要访问此特定部分的源代码,请参考[这里](https://packt.live/2NQ6h0p)
您也可以通过 [https://packt.live/2BTreFi](https://packt.live/2BTreFi) 在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。 您也可以通过[这里](https://packt.live/2BTreFi)在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
要访问此源代码的 GPU 版本,请参考 [https://packt.live/31uctU5](https://packt.live/31uctU5) 。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。 要访问此源代码的 GPU 版本,请参考[这里](https://packt.live/31uctU5)。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。
这样,您已经成功加载并显示了用于样式传输的内容和样式图像。 这样,您已经成功加载并显示了用于样式传输的内容和样式图像。
...@@ -284,7 +284,7 @@ transforms.ToPILImage()]) ...@@ -284,7 +284,7 @@ transforms.ToPILImage()])
注意 注意
要探索 PyTorch 中可用的其他预训练模型,请访问 [https://pytorch.org/docs/stable/torchvision/models.html](https://pytorch.org/docs/stable/torchvision/models.html) 要探索 PyTorch 中可用的其他预训练模型,请访问[这里](https://pytorch.org/docs/stable/torchvision/models.html)
根据前面的信息,仅应加载模型的特征部分,以便提取内容和样式图像的必要特征。 加载模型包括调用**模型**子程序包,然后调用模型名称,并确保将**预训练的**参数设置为 **True** (为了 加载先前训练过程中的参数),并按照以下代码片段仅加载要素图层: 根据前面的信息,仅应加载模型的特征部分,以便提取内容和样式图像的必要特征。 加载模型包括调用**模型**子程序包,然后调用模型名称,并确保将**预训练的**参数设置为 **True** (为了 加载先前训练过程中的参数),并按照以下代码片段仅加载要素图层:
...@@ -323,11 +323,11 @@ param.requires_grad_(False) ...@@ -323,11 +323,11 @@ param.requires_grad_(False)
注意 注意
要访问此特定部分的源代码,请参考 [https://packt.live/2VCYqIa](https://packt.live/2VCYqIa) 要访问此特定部分的源代码,请参考[这里](https://packt.live/2VCYqIa)
您也可以通过 [https://packt.live/2BXLXYE](https://packt.live/2BXLXYE) 在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。 您也可以通过[这里](https://packt.live/2BXLXYE)在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
要访问此源代码的 GPU 版本,请参考 [https://packt.live/2Vx2kC4](https://packt.live/2Vx2kC4) 。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。 要访问此源代码的 GPU 版本,请参考[这里](https://packt.live/2Vx2kC4)。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。
这样,您已经成功加载了预训练的模型。 这样,您已经成功加载了预训练的模型。
...@@ -341,7 +341,7 @@ param.requires_grad_(False) ...@@ -341,7 +341,7 @@ param.requires_grad_(False)
注意 注意
可以在以下 URL 上访问用作本章指南的论文: [https://www.cv-foundation.org/openaccess/content_cvpr_2016/papers/Gatys_Image_Style_Transfer_CVPR_2016_paper.pdf](https://www.cv-foundation.org/openaccess/content_cvpr_2016/papers/Gatys_Image_Style_Transfer_CVPR_2016_paper.pdf) [可以在以下 URL 上访问用作本章指南的论文](https://www.cv-foundation.org/openaccess/content_cvpr_2016/papers/Gatys_Image_Style_Transfer_CVPR_2016_paper.pdf)
这意味着样式图像的特征是从五个不同的图层获得的,而内容图像的特征是仅从一层获取的。 每个图层的输出都用于将输出图像与输入图像进行比较,目的是修改目标图像的参数,使其与内容图像的内容和样式图像的样式相似, 可以通过优化三个不同的损失函数来实现(将在本章中进一步说明)。 这意味着样式图像的特征是从五个不同的图层获得的,而内容图像的特征是仅从一层获取的。 每个图层的输出都用于将输出图像与输入图像进行比较,目的是修改目标图像的参数,使其与内容图像的内容和样式图像的样式相似, 可以通过优化三个不同的损失函数来实现(将在本章中进一步说明)。
...@@ -472,11 +472,11 @@ features [layers [index]] = x ...@@ -472,11 +472,11 @@ features [layers [index]] = x
注意 注意
要访问此特定部分的源代码,请参考 [https://packt.live/2ZtSoL7](https://packt.live/2ZtSoL7) 要访问此特定部分的源代码,请参考[这里](https://packt.live/2ZtSoL7)
您也可以通过 [https://packt.live/2Vz7Cgm](https://packt.live/2Vz7Cgm) 在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。 您也可以通过[这里](https://packt.live/2Vz7Cgm)在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
要访问此源代码的 GPU 版本,请参考 [https://packt.live/3ePLxlA](https://packt.live/3ePLxlA) 。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。 要访问此源代码的 GPU 版本,请参考[这里](https://packt.live/3ePLxlA)。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。
这样,您就成功完成了特征提取并计算了语法矩阵来执行样式转换。 这样,您就成功完成了特征提取并计算了语法矩阵来执行样式转换。
...@@ -668,17 +668,17 @@ features [layers [index]] = x ...@@ -668,17 +668,17 @@ features [layers [index]] = x
注意 注意
要查看高质量的彩色图像,请访问本书的 GitHub 存储库,网址为 [https://packt.live/2VBZA5E](https://packt.live/2VBZA5E) [要查看高质量的彩色图像,请访问本书的 GitHub 存储库](https://packt.live/2VBZA5E)
这样,您就成功地执行了样式转换。 这样,您就成功地执行了样式转换。
注意 注意
要访问此特定部分的源代码,请参考 [https://packt.live/2VyKJtK](https://packt.live/2VyKJtK) 要访问此特定部分的源代码,请参考[这里](https://packt.live/2VyKJtK)
本部分当前没有在线交互示例,需要在本地运行。 本部分当前没有在线交互示例,需要在本地运行。
要访问此源代码的 GPU 版本,请参考 [https://packt.live/2YMcdhh](https://packt.live/2YMcdhh) 。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。 要访问此源代码的 GPU 版本,请参考[这里](https://packt.live/2YMcdhh)。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。
## 练习 5.01:执行样式转移 ## 练习 5.01:执行样式转移
...@@ -715,7 +715,7 @@ features [layers [index]] = x ...@@ -715,7 +715,7 @@ features [layers [index]] = x
有关此活动的解决方案,请参见第 277 页。 有关此活动的解决方案,请参见第 277 页。
要查看*图 5.10* 的高质量彩色图像,请访问 [https://packt.live/2KcORcw](https://packt.live/2KcORcw) 要查看*图 5.10* 的高质量彩色图像,请访问[这里](https://packt.live/2KcORcw)
# 摘要 # 摘要
......
...@@ -16,7 +16,7 @@ ...@@ -16,7 +16,7 @@
注意 注意
本章中提供的所有代码都可以在以下位置找到: [https://packt.live/2yn253K](https://packt.live/2yn253K) [本章中提供的所有代码都可以在以下位置找到](https://packt.live/2yn253K)
# 递归神经网络 # 递归神经网络
...@@ -194,9 +194,9 @@ ...@@ -194,9 +194,9 @@
注意 注意
要访问此特定部分的源代码,请参考 [https://packt.live/2VQ5OjB](https://packt.live/2VQ5OjB) 要访问此特定部分的源代码,请参考[这里](https://packt.live/2VQ5OjB)
您也可以通过 [https://packt.live/31yCotG](https://packt.live/31yCotG) 在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。 您也可以通过[这里](https://packt.live/31yCotG)在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
## PyTorch 中的 RNN ## PyTorch 中的 RNN
...@@ -266,7 +266,7 @@ Optimizer.step() ...@@ -266,7 +266,7 @@ Optimizer.step()
注意 注意
可以在 [https://packt.live/2K5pQQK](https://packt.live/2K5pQQK) 上找到包含将在此活动中使用的数据集的 CSV 文件。 也可以从 [https://archive.ics.uci.edu/ml/datasets/Sales_Transactions_Dataset_Weekly](https://archive.ics.uci.edu/ml/datasets/Sales_Transactions_Dataset_Weekly) 在线获取。 可以在[这个页面](https://packt.live/2K5pQQK)上找到包含将在此活动中使用的数据集的 CSV 文件。 也可以从[这里](https://archive.ics.uci.edu/ml/datasets/Sales_Transactions_Dataset_Weekly)在线获取。
数据集和相关分析首次在此处发布:Tan S.C.,Lau J.P.S. (2014)时间序列聚类:市场篮子分析的一种出色选择。 在:Herawan T.,Deris M.,Abawajy J.(主编)第一次高级数据和信息工程国际会议论文集(DaEng-2013)。 电气工程讲义,第 285 卷。施普林格,新加坡。 数据集和相关分析首次在此处发布:Tan S.C.,Lau J.P.S. (2014)时间序列聚类:市场篮子分析的一种出色选择。 在:Herawan T.,Deris M.,Abawajy J.(主编)第一次高级数据和信息工程国际会议论文集(DaEng-2013)。 电气工程讲义,第 285 卷。施普林格,新加坡。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册