提交 e3fed78e 编写于 作者: W wizardforcel

2021-01-13 15:38:24

上级 60061cc6
......@@ -452,7 +452,7 @@ x = np.array(indexed_data).reshape((2,-1))
注意
您可以在 [https://www.geeksforgeeks.org/ml-one-hot-encoding-of-datasets-in-python/](https://www.geeksforgeeks.org/ml-one-hot-encoding-of-datasets-in-python/) 中找到有关一键编码的更多信息。
您可以在[这个页面](https://www.geeksforgeeks.org/ml-one-hot-encoding-of-datasets-in-python/)中找到有关一键编码的更多信息。
这可以通过以下代码片段实现:
......@@ -554,9 +554,9 @@ batch.shape [1],-1))
注意
要访问此特定部分的源代码,请参考 [https://packt.live/2ZpGvFJ](https://packt.live/2ZpGvFJ)
要访问此特定部分的源代码,请参考[这里](https://packt.live/2ZpGvFJ)
您也可以通过 [https://packt.live/38foCxD](https://packt.live/38foCxD) 在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
您也可以通过[这里](https://packt.live/38foCxD)在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
您已成功将一些示例文本转换为一键式矩阵。
......@@ -907,9 +907,9 @@ out = self.output(输出)
注意
可以在 [https://packt.live/2z2LYc5](https://packt.live/2z2LYc5) 找到该活动的数据集。 也可以从 [https://archive.ics.uci.edu/ml/datasets/Sentiment+Labelled+Sentences](https://archive.ics.uci.edu/ml/datasets/Sentiment+Labelled+Sentences) 在线获取。
可以在[这里](https://packt.live/2z2LYc5)找到该活动的数据集。 也可以从[这里](https://archive.ics.uci.edu/ml/datasets/Sentiment+Labelled+Sentences)在线获取。
数据集和相关分析首次在此处发布:使用深度特征从组到单个标签,Kotzias 等。 等等 KDD 2015 [ [https://doi.org/10.1145/2783258.2783380](https://doi.org/10.1145/2783258.2783380) ]
数据集和相关分析首次在此处发布:[使用深度特征从组到单个标签,Kotzias 等,KDD 2015](https://doi.org/10.1145/2783258.2783380)
在此活动中,将使用 LSTM 网络分析一组评论,以确定其背后的观点。 让我们考虑以下情况:您在一家互联网提供商的公共关系部门工作,并且审查您在公司的社交媒体资料中遇到的每个查询的过程都将花费很长时间。 最大的问题是与服务有问题的客户相比,没有服务的客户缺乏耐心,因此您需要确定响应的优先级,以便首先解决他们。 当您在业余时间喜欢编程时,您决定尝试构建一个神经网络,该网络能够确定消息是消极还是肯定。 请按照以下步骤完成此活动:
......
......@@ -80,9 +80,9 @@
注意
要访问此特定部分的源代码,请参考 [https://packt.live/2ZufWiI](https://packt.live/2ZufWiI)
要访问此特定部分的源代码,请参考[这里](https://packt.live/2ZufWiI)
您也可以通过 [https://packt.live/2BZhyZF](https://packt.live/2BZhyZF) 在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
您也可以通过[这里](https://packt.live/2BZhyZF)在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
# 2.神经网络的构建基块
......@@ -224,9 +224,9 @@
注意
要访问此特定部分的源代码,请参考 [https://packt.live/31ukVTj](https://packt.live/31ukVTj)
要访问此特定部分的源代码,请参考[这里](https://packt.live/31ukVTj)
您也可以通过 [https://packt.live/3dLWMdd](https://packt.live/3dLWMdd) 在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
您也可以通过[这里](https://packt.live/3dLWMdd)在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
## 活动 2.02:为回归问题开发深度学习解决方案
......@@ -306,9 +306,9 @@
注意
要访问此特定部分的源代码,请参考 [https://packt.live/2CUDSnP](https://packt.live/2CUDSnP)
要访问此特定部分的源代码,请参考[这里](https://packt.live/2CUDSnP)
您也可以通过 [https://packt.live/3eQ1yI2](https://packt.live/3eQ1yI2) 在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
您也可以通过[这里](https://packt.live/3eQ1yI2)在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
# 3.使用 DNN 的分类问题
......@@ -560,9 +560,9 @@
注意
要访问此特定部分的源代码,请参考 [https://packt.live/2Vz6BoK](https://packt.live/2Vz6BoK)
要访问此特定部分的源代码,请参考[这里](https://packt.live/2Vz6BoK)
您也可以通过 [https://packt.live/2NNBuRS](https://packt.live/2NNBuRS) 在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
您也可以通过[这里](https://packt.live/2NNBuRS)在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
## 练习 3.02:提高模型的性能
......@@ -824,7 +824,7 @@
注意
要访问此特定部分的源代码,请参考 [https://packt.live/2Bs42hh](https://packt.live/2Bs42hh)
要访问此特定部分的源代码,请参考[这里](https://packt.live/2Bs42hh)
本部分当前没有在线交互示例,需要在本地运行。
......@@ -970,7 +970,7 @@
注意
要访问此特定部分的源代码,请参考 [https://packt.live/2NHkddn](https://packt.live/2NHkddn)
要访问此特定部分的源代码,请参考[这里](https://packt.live/2NHkddn)
本部分当前没有在线交互示例,需要在本地运行。
......@@ -1480,11 +1480,11 @@
注意
要访问此特定部分的源代码,请参考 [https://packt.live/3gjvWuV](https://packt.live/3gjvWuV)
要访问此特定部分的源代码,请参考[这里](https://packt.live/3gjvWuV)
本部分当前没有在线交互示例,需要在本地运行。
要访问此源代码的 GPU 版本,请参考 [https://packt.live/2BUGjGF](https://packt.live/2BUGjGF) 。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。
要访问此源代码的 GPU 版本,请参考[这里](https://packt.live/2BUGjGF)。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。
## 活动 4.02:实施数据增强
......@@ -1544,11 +1544,11 @@
注意
要访问此特定部分的源代码,请参考 [https://packt.live/3ePcAND](https://packt.live/3ePcAND)
要访问此特定部分的源代码,请参考[这里](https://packt.live/3ePcAND)
本部分当前没有在线交互示例,需要在本地运行。
要访问此源代码的 GPU 版本,请参阅 [https://packt.live/38jpq4g](https://packt.live/38jpq4g) 。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。
要访问此源代码的 GPU 版本,请参考[这里](https://packt.live/38jpq4g)。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。
## 活动 4.03:实现批量标准化
......@@ -1634,11 +1634,11 @@
注意
要访问此特定部分的源代码,请参考 [https://packt.live/31sSR2G](https://packt.live/31sSR2G)
要访问此特定部分的源代码,请参考[这里](https://packt.live/31sSR2G)
本部分当前没有在线交互示例,需要在本地运行。
要访问此源代码的 GPU 版本,请参考 [https://packt.live/3eVgp4g](https://packt.live/3eVgp4g) 。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。
要访问此源代码的 GPU 版本,请参考[这里](https://packt.live/3eVgp4g)。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。
# 5.样式转移
......@@ -1966,11 +1966,11 @@
要查看 高质量彩色图像,请访问本书的 GitHub 存储库,网址为 https://packt.live/2KcORcw。
要访问此特定部分的源代码,请参考 [https://packt.live/2BZj91B](https://packt.live/2BZj91B)
要访问此特定部分的源代码,请参考[这里](https://packt.live/2BZj91B)
本部分当前没有在线交互示例,需要在本地运行。
要访问此源代码的 GPU 版本,请参考 [https://packt.live/3eNfvqc](https://packt.live/3eNfvqc) 。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。
要访问此源代码的 GPU 版本,请参考[这里](https://packt.live/3eNfvqc)。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。
# 6.使用 RNN 分析数据序列
......@@ -2198,9 +2198,9 @@
注意
要访问此特定部分的源代码,请参考 [https://packt.live/2BqDWvg](https://packt.live/2BqDWvg)
要访问此特定部分的源代码,请参考[这里](https://packt.live/2BqDWvg)
您也可以通过 [https://packt.live/3ihPgKB](https://packt.live/3ihPgKB) 在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
您也可以通过[这里](https://packt.live/3ihPgKB)在线运行此示例。 您必须执行整个笔记本才能获得所需的结果。
## 活动 6.02:使用 LSTM 网络生成文本
......@@ -2598,11 +2598,11 @@
注意
要访问此特定部分的源代码,请参考 [https://packt.live/2Bs6dRZ](https://packt.live/2Bs6dRZ)
要访问此特定部分的源代码,请参考[这里](https://packt.live/2Bs6dRZ)
本部分当前没有在线交互示例,需要在本地运行。
要访问此源代码的 GPU 版本,请参考 [https://packt.live/3g9X6UI](https://packt.live/3g9X6UI) 。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。
要访问此源代码的 GPU 版本,请参考[这里](https://packt.live/3g9X6UI)。 此版本的源代码无法作为在线交互示例使用,需要通过 GPU 设置在本地运行。
## 活动 6.03:执行情感分析的 NLP
......@@ -2822,6 +2822,6 @@ plt.show()
注意
要访问此特定部分的源代码,请参考 [https://packt.live/2VyX0ON](https://packt.live/2VyX0ON)
要访问此特定部分的源代码,请参考[这里](https://packt.live/2VyX0ON)
本部分当前没有在线交互示例,需要在本地运行。
\ No newline at end of file
......@@ -51,13 +51,13 @@
* Mac 版 Zipeg / iZip / UnRarX
* 适用于 Linux 的 7-Zip / PeaZip
本书的代码包也托管在 GitHub 上的 [https://github.com/PacktPublishing/Hands-On-One-shot-Learning-with-Python](https://github.com/PacktPublishing/Hands-On-One-shot-Learning-with-Python) 。 如果代码有更新,它将在现有的 GitHub 存储库中进行更新。
[本书的代码包也托管在 GitHub 上](https://github.com/PacktPublishing/Hands-On-One-shot-Learning-with-Python)。 如果代码有更新,它将在现有的 GitHub 存储库中进行更新。
我们还从 **[https://github.com/PacktPublishing/](https://github.com/PacktPublishing/)** 提供了丰富的书籍和视频目录中的其他代码包。 去看一下!
我们还从[这里](https://github.com/PacktPublishing/)提供了丰富的书籍和视频目录中的其他代码包。 去看一下!
# 下载彩色图像
我们还提供了 PDF 文件,其中包含本书中使用的屏幕截图/图表的彩色图像。 您可以在此处下载: [http://www.packtpub.com/sites/default/files/downloads/9781838825461_ColorImages.pdf](https://www.packtpub.com/sites/default/files/downloads/9781838825461_ColorImages.pdf)
我们还提供了 PDF 文件,其中包含本书中使用的屏幕截图/图表的彩色图像。 [您可以在此处下载](https://www.packtpub.com/sites/default/files/downloads/9781838825461_ColorImages.pdf)
# 使用约定
......
......@@ -23,7 +23,7 @@
* Matplotlib
* Scikit 学习
您可以在本书的 GitHub 存储库中找到本章的代码文件: [https://github.com/PacktPublishing/Hands-on-One-Shot-Learning-with-Python](https://github.com/PacktPublishing/Hands-on-One-Shot-Learning-with-Python)
[您可以在本书的 GitHub 存储库中找到本章的代码文件](https://github.com/PacktPublishing/Hands-on-One-Shot-Learning-with-Python)
# 人脑–概述
......@@ -122,7 +122,7 @@ git clone https://github.com/Packt-Publishing/Hands-on-One-Shot-Learning.git
cd Hands-on-One-Shot-Learning/Chapter01
```
3. 然后,打开一个终端并使用以下命令安装 Python 版本 3.6 的 Anaconda( [https://docs.anaconda.com/anaconda/install/](https://docs.anaconda.com/anaconda/install/),并创建一个虚拟环境:
3. 然后,打开一个终端并使用以下命令安装 [Python 版本 3.6 的 Anaconda](https://docs.anaconda.com/anaconda/install/),并创建一个虚拟环境:
```py
conda create --name *environment_name* python=3.6
......@@ -162,7 +162,7 @@ jupyter notebook
![](img/16ca7a17-01fc-4139-a2af-1e12225d1e1b.png)
您还可以在以下 GitHub 链接上引用代码文件: [https://github.com/PacktPublishing/Hands-on-One-Shot-Learning-with-Python/blob/master/Chapter01/CodingExercise01.ipynb](https://github.com/PacktPublishing/Hands-on-One-Shot-Learning-with-Python/blob/master/Chapter01/CodingExercise01.ipynb)
[您还可以在以下 GitHub 链接上引用代码文件](https://github.com/PacktPublishing/Hands-on-One-Shot-Learning-with-Python/blob/master/Chapter01/CodingExercise01.ipynb)
请按照以下步骤将 kNN 与神经网络进行比较:
......
......@@ -22,7 +22,7 @@
* Matplotlib
* scikit 学习
您可以在该书的 GitHub 存储库中找到该章的代码文件,网址为 [https://github.com/PacktPublishing/Hands-On-One-shot-Learning-with-Python](https://github.com/PacktPublishing/Hands-On-One-shot-Learning-with-Python)
[您可以在该书的 GitHub 存储库中找到该章的代码文件](https://github.com/PacktPublishing/Hands-On-One-shot-Learning-with-Python)
# 参数方法–概述
......@@ -569,9 +569,9 @@ testing_plots(model)
在本教程中,我们将学习如何创建匹配的网络架构并将其训练在 Omniglot 数据集上。 首先,让我们首先了解什么是 Omniglot 数据集。
Omniglot 数据集旨在开发更多类似于人类的学习算法。 它包含来自 50 个不同字母的 1,623 个不同的手写字符。 1,623 个字符中的每个字符都是由 20 个不同的人通过亚马逊的 Mechanical Turk 在线绘制的。 每个图像都与笔划数据配对,序列 *[x,y,t]* 与时间的坐标( *t* )以毫秒为单位。 有关更多详细信息,请参考 [https://github.com/brendenlake/omniglot](https://github.com/brendenlake/omniglot)
Omniglot 数据集旨在开发更多类似于人类的学习算法。 它包含来自 50 个不同字母的 1,623 个不同的手写字符。 1,623 个字符中的每个字符都是由 20 个不同的人通过亚马逊的 Mechanical Turk 在线绘制的。 每个图像都与笔划数据配对,序列 *[x,y,t]* 与时间的坐标( *t* )以毫秒为单位。 有关更多详细信息,请参考[这里](https://github.com/brendenlake/omniglot)
您可以从 [https://github.com/brendenlake/omniglot](https://github.com/brendenlake/omniglot) 下载 Omniglot 数据集。
您可以从[这里](https://github.com/brendenlake/omniglot)下载 Omniglot 数据集。
我们的匹配网络体系结构实现包括以下五个重要部分(有关更多详细信息,您可以参考*建模级别-匹配网络体系结构*部分中的匹配网络体系结构图):
......@@ -613,7 +613,7 @@ classes_per_set = 20 # Number of classes per set
samples_per_class = 1 # as we are choosing it to be one shot learning, so we have 1 sample
```
如果您想了解有关数据加载方法的更多信息,可以参考 GitHub 上的`helper.py`文件,网址为 [https://github.com/PacktPublishing/Hands-On-One-shot-Learning-with- Python / tree / master / Chapter02](https://github.com/PacktPublishing/Hands-On-One-shot-Learning-with-Python/tree/master/Chapter02)
如果您想了解有关数据加载方法的更多信息,[可以参考 GitHub 上的`helper.py`文件](https://github.com/PacktPublishing/Hands-On-One-shot-Learning-with-Python/tree/master/Chapter02)
3. 使用规范化方法预处理图像:
......@@ -1080,5 +1080,5 @@ plot_loss(train_loss,val_loss)
要更深入地了解本章介绍的体系结构,并探讨它们的工作方式和原因,请阅读以下文章:
* *用于一幅图像识别的连体神经网络*[https://www.cs.cmu.edu/~rsalakhu/papers/oneshot1.pdf](https://www.cs.cmu.edu/~rsalakhu/papers/oneshot1.pdf)
* *一次射击学习的匹配网络*[https://arxiv.org/pdf/1606.04080.pdf](https://arxiv.org/pdf/1606.04080.pdf)
\ No newline at end of file
* [《用于一次图像识别的连体神经网络》](https://www.cs.cmu.edu/~rsalakhu/papers/oneshot1.pdf)
* [《一次学习的匹配网络》](https://arxiv.org/pdf/1606.04080.pdf)
\ No newline at end of file
......@@ -13,7 +13,7 @@
您将需要 Python,Anaconda,Jupyter Notebook,PyTorch 和 Matplotlib 库在本章中学习和执行项目。
您可以在本书的 GitHub 存储库中 [https://github.com/PacktPublishing/Hands-On-One-shot-Learning-with-Python](https://github.com/PacktPublishing/Hands-On-One-shot-Learning-with-Python) 中找到本章的代码文件。
您可以在本书的 [GitHub 存储库](https://github.com/PacktPublishing/Hands-On-One-shot-Learning-with-Python)中找到本章的代码文件。
# 了解神经图灵机
......
......@@ -119,7 +119,7 @@ def run_demo(demo_fn, world_size):
## 保存和加载检查点](docs / modern-java-zh /
在训练过程中通常使用`torch.save``torch.load`来检查点模块并从检查点中恢复。 有关更多详细信息,请参见[保存和加载模型](https://pytorch.org/tutorials/beginner/saving_loading_models.html)。 使用 DDP 时,一种优化方法是仅在一个进程中保存模型,然后将其加载到所有进程中,从而减少写开销。 这是正确的,因为所有过程都从相同的参数开始,并且梯度在向后传递中同步,因此优化程序应将参数设置为相同的值。 如果使用此优化,请确保在保存完成之前不要启动所有进程。 此外,在加载模块时,您需要提供适当的`map_location`参数,以防止进程进入其他设备。 如果缺少`map_location`,则`torch.load`将首先将模块加载到 CPU,然后将每个参数复制到保存位置,这将导致同一台机器上的所有进程使用相同的设备集。 有关更高级的故障恢复和弹性支持,请参考 [TorchElastic](https://pytorch.org/elastic)
在训练过程中通常使用`torch.save``torch.load`来检查点模块并从检查点中恢复。 有关更多详细信息,请参见[保存和加载模型](https://pytorch.org/tutorials/beginner/saving_loading_models.html)。 使用 DDP 时,一种优化方法是仅在一个进程中保存模型,然后将其加载到所有进程中,从而减少写开销。 这是正确的,因为所有过程都从相同的参数开始,并且梯度在向后传递中同步,因此优化程序应将参数设置为相同的值。 如果使用此优化,请确保在保存完成之前不要启动所有进程。 此外,在加载模块时,您需要提供适当的`map_location`参数,以防止进程进入其他设备。 如果缺少`map_location`,则`torch.load`将首先将模块加载到 CPU,然后将每个参数复制到保存位置,这将导致同一台机器上的所有进程使用相同的设备集。 有关更高级的故障恢复和弹性支持,请参考[这里](https://pytorch.org/elastic)
```py
def demo_checkpoint(rank, world_size):
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册