提交 69e87989 编写于 作者: W wizardforcel

2021-01-13 15:56:37

上级 9dbb1436
......@@ -22,13 +22,13 @@
[《RepMet:用于分类和几次对象检测的基于代表的度量学习》](https://arxiv.org/abs/1806.04728)是一种几次学习对象检测方法。 在本文中,作者提出了一种用于对象区域建议的特征金字塔网络的变体,并且在其顶部,他们添加了基于度量的分类器,该分类器根据与学习的类代表的距离对建议的区域进行分类。 他们还通过在 ImageNet 数据集上建立了用于少发物体检测任务的基准,为研究界做出了贡献。
同样,[《具有共同注意和共同激发的单次目标检测》](https://arxiv.org/abs/1911.12529)也可以在建议的区域基础上进行过滤 使用传统的视觉方法。 在这项工作中,作者假设将提供目标图像和查询图像。 例如,如果我们要检测笔架,则目标图像将是笔架,而查询图像将是桌子上的笔架。 在这种方法中,我们首先从目标图像中提取有关对象的空间信息,然后从查询图像中提取上下文对象。 上下文和空间信息在确定对象方面起着重要作用。 例如,如果有一张桌子,出现笔架的可能性就会增加。 这类似于人类使用上下文学习的方式。 该模型还通过将输入传递给注意力模型来利用上下文的帮助。
同样,[《具有共同注意和共同激励的一次目标检测》](https://arxiv.org/abs/1911.12529)也可以在建议的区域基础上进行过滤 使用传统的视觉方法。 在这项工作中,作者假设将提供目标图像和查询图像。 例如,如果我们要检测笔架,则目标图像将是笔架,而查询图像将是桌子上的笔架。 在这种方法中,我们首先从目标图像中提取有关对象的空间信息,然后从查询图像中提取上下文对象。 上下文和空间信息在确定对象方面起着重要作用。 例如,如果有一张桌子,出现笔架的可能性就会增加。 这类似于人类使用上下文学习的方式。 该模型还通过将输入传递给注意力模型来利用上下文的帮助。
# 少数镜头域中的图像分割
研究工作 *CANet:具有迭代细化和专注的少拍学习的类不可知分割网络*[https://arxiv.org/abs/1903.02351](https://arxiv.org/abs/1903.02351)证明了潜在的增长 医学影像行业。 在本文中,作者提出了一个用于语义分割的两级框架:**密集比较模块****DCM** )和**迭代优化模块****IOM** )。 DCM 通过使用通用的 ResNet 架构提取特征,在训练集示例和测试集示例之间进行了密集的特征比较,而 IOM 通过残差块+ CNN 和**粗糙的空间金字塔池****ASPP** )模块。
研究工作[《CANet:具有迭代细化和专注的几次学习的类不可知分割网络》](https://arxiv.org/abs/1903.02351)证明了潜在的增长 医学影像行业。 在本文中,作者提出了一个用于语义分割的两级框架:**密集比较模块****DCM** )和**迭代优化模块****IOM** )。 DCM 通过使用通用的 ResNet 架构提取特征,在训练集示例和测试集示例之间进行了密集的特征比较,而 IOM 通过残差块+ CNN 和**粗糙的空间金字塔池****ASPP** )模块。
同样, *PANet:具有原型对齐功能的少量镜头语义分割*[https://arxiv.org/abs/1908.06391](https://arxiv.org/abs/1908.06391)通过以下方式解决了少数镜头分割问题: 度量学习方法。 本文还提出了一种对齐网络,以更好地利用从支持集中提取的信息。 在 PANet 中,最初,网络从特定嵌入空间内的一些支持图像中学习特定于类别的表示,然后通过将每个像素与学习到的特定于类别的表示进行匹配,对查询/目标图像执行分割。 通过使用这种方法,PANet 可以利用支持集中的重要见解,并在几次分割的情况下提供更可靠的概括。
同样, [《PANet:具有原型对齐功能的几次语义分割》](https://arxiv.org/abs/1908.06391)通过以下方式解决了少数镜头分割问题: 度量学习方法。 本文还提出了一种对齐网络,以更好地利用从支持集中提取的信息。 在 PANet 中,最初,网络从特定嵌入空间内的一些支持图像中学习特定于类别的表示,然后通过将每个像素与学习到的特定于类别的表示进行匹配,对查询/目标图像执行分割。 通过使用这种方法,PANet 可以利用支持集中的重要见解,并在几次分割的情况下提供更可靠的概括。
如我们所见,这些解决方案适用于数据有限的情况。 我们如何量化有限的和足够的? 我们需要查看我们希望训练的模型体系结构的能力以及希望解决的问题的复杂性。 类似于一次学习,多年来研究人员提出了其他一些方法,也旨在解决数据有限的问题。 在下一节中,我们将学习机器学习的这些领域,以及它们与单次学习相比的效率。
......@@ -83,10 +83,10 @@
要进一步了解本章,请参考以下作品:
* *动手元学习*[https://www.packtpub.com/big-data-and-business-intelligence/hands-meta-learning-python](https://www.packtpub.com/big-data-and-business-intelligence/hands-meta-learning-python)
* *重新研究基于局部描述符的图像到类测量以进行几次学习*[https://arxiv.org/pdf/1903.12290.pdf](https://arxiv.org/pdf/1903.12290.pdf)
* *通过类别遍历查找与几项学习相关的任务相关功能*[https://arxiv.org/pdf/1905.11116.pdf](https://arxiv.org/pdf/1905.11116.pdf)
* *RepMet:基于代表的度量学习,用于分类和少量镜头检测*[https://arxiv.org/abs/1806.04728](https://arxiv.org/abs/1806.04728)
* *具有共同注意和共同激励的一次性检测对象*[https://arxiv.org/pdf/1911.12529.pdf](https://arxiv.org/pdf/1911.12529.pdf)
* *CANet:具有迭代细化和专心的几次镜头学习的类不可知分割网络*[https://arxiv.org/pdf/1903.02351.pdf](https://arxiv.org/pdf/1903.02351.pdf)
* *PANet:具有原型对齐功能的少量图像语义分割*[https://arxiv.org/pdf/1908.06391.pdf](https://arxiv.org/pdf/1908.06391.pdf)
\ No newline at end of file
* [《元学习实践》](https://www.packtpub.com/big-data-and-business-intelligence/hands-meta-learning-python)
* [《为几次学习重新研究基于局部描述符的图像到类度量》](https://arxiv.org/pdf/1903.12290.pdf)
* [《通过类别遍历查找与几项学习相关的任务相关功能》](https://arxiv.org/pdf/1905.11116.pdf)
* [《RepMet:基于代表的度量学习,用于分类和几次检测》](https://arxiv.org/abs/1806.04728)
* [《具有共同注意和共同激励的一次对象检测》](https://arxiv.org/pdf/1911.12529.pdf)
* [《CANet:具有迭代细化和专心的几次镜头学习的类不可知分割网络》](https://arxiv.org/pdf/1903.02351.pdf)
* [《PANet:具有原型对齐功能的几次图像语义分割》](https://arxiv.org/pdf/1908.06391.pdf)
\ No newline at end of file
......@@ -57,13 +57,13 @@
* Mac 版 Zipeg / iZip / UnRarX
* 适用于 Linux 的 7-Zip / PeaZip
本书的代码包也托管在 GitHub 的 [https://github.com/PacktPublishing/Hands-On-Natural-Language-Processing-with-PyTorch-1.x](https://github.com/PacktPublishing/Hands-On-Natural-Language-Processing-with-PyTorch-1.x) 中。 如果代码有更新,它将在现有的 GitHub 存储库中进行更新。
本书的代码包也托管在 [GitHub](https://github.com/PacktPublishing/Hands-On-Natural-Language-Processing-with-PyTorch-1.x) 中。 如果代码有更新,它将在现有的 GitHub 存储库中进行更新。
[这个页面](https://github.com/PacktPublishing/)上,我们还提供了丰富的书籍和视频目录中的其他代码包。 去看一下!
# 下载彩色图像
我们还提供了 PDF 文件,其中包含本书中使用的屏幕截图/图表的彩色图像。 您可以在此处下载: [https://static.packt-cdn.com/downloads/9781789802740_ColorImages.pdf](https://static.packt-cdn.com/downloads/9781789802740_ColorImages.pdf)
我们还提供了 PDF 文件,其中包含本书中使用的屏幕截图/图表的彩色图像。 [您可以在此处下载](https://static.packt-cdn.com/downloads/9781789802740_ColorImages.pdf)
# 使用的约定
......
......@@ -114,7 +114,7 @@ GPU 最初是为了有效地渲染图形而创建的,但是由于深度学习
图 2.8 –并行执行通行证的方法
**计算统一设备体系结构****CUDA** )是 Nvidia GPU 特有的技术,可在 PyTorch 上实现硬件加速。 为了启用 CUDA,我们首先必须确保我们系统上的图形卡兼容 CUDA。 可在此处找到 CUDA 兼容 GPU 的列表: [https://developer.nvidia.com/cuda-gpus](https://developer.nvidia.com/cuda-gpus) 。 如果您具有兼容 CUDA 的 GPU,则可以从此链接安装 CUDA: [https://developer.nvidia.com/cuda-downloads](https://developer.nvidia.com/cuda-downloads) 。 我们将使用以下步骤激活它:
**计算统一设备体系结构****CUDA** )是 Nvidia GPU 特有的技术,可在 PyTorch 上实现硬件加速。 为了启用 CUDA,我们首先必须确保我们系统上的图形卡兼容 CUDA。 [可在此处找到 CUDA 兼容 GPU 的列表](https://developer.nvidia.com/cuda-gpus)。 如果您具有兼容 CUDA 的 GPU,[则可以从此链接安装 CUDA](https://developer.nvidia.com/cuda-downloads)。 我们将使用以下步骤激活它:
1. 首先,为了在 PyTorch 上实际启用 CUDA 支持,您将必须从源代码构建 PyTorch。 有关如何完成此操作的详细信息,请参见以下网址:https://github.com/pytorch/pytorch#from-source。
2. Then, to actually CUDA within our PyTorch code, we must type the following into our Python code:
......
......@@ -15,7 +15,7 @@
# 技术要求
可以从 [https://nlp.stanford.edu/projects/glove/](https://nlp.stanford.edu/projects/glove/) 下载 GLoVe 载体。 建议使用 **Gloves.6B.50d.txt** 文件,因为它比其他文件小得多,并且处理起来也快得多。 本章后面的部分将要求 NLTK。 本章的所有代码都可以在[这个页面](https://github.com/PacktPublishing/Hands-On-Natural-Language-Processing-with-PyTorch-1.x)中找到。
可以从[这里](https://nlp.stanford.edu/projects/glove/)下载 GLoVe 向量。 建议使用 **Gloves.6B.50d.txt** 文件,因为它比其他文件小得多,并且处理起来也快得多。 本章后面的部分将要求 NLTK。 本章的所有代码都可以在[这个页面](https://github.com/PacktPublishing/Hands-On-Natural-Language-Processing-with-PyTorch-1.x)中找到。
# NLP 的嵌入
......@@ -35,7 +35,7 @@
## GLoVe
我们可以下载一组预先计算的词嵌入,以演示它们如何工作。 为此,我们将使用**用于词表示的全局矢量****GLoVe** )嵌入,可以从此处下载: [https://nlp.stanford.edu/projects/ 手套/](https://nlp.stanford.edu/projects/glove/) 。 这些嵌入是在非常大的 NLP 数据集上计算的,并且在词共现矩阵上训练了。 这是基于这样的概念,即在一起出现的单词更有可能具有相似的含义。 例如,单词 *sun* 与单词 *hot* 相对于单词 *cold* 更有可能出现,因此 *太阳**热*被认为更相似。
我们可以下载一组预先计算的词嵌入,以演示它们如何工作。 为此,我们将使用**用于词表示的全局矢量****GLoVe** )嵌入,[可以从此处下载](https://nlp.stanford.edu/projects/glove/)。 这些嵌入是在非常大的 NLP 数据集上计算的,并且在词共现矩阵上训练了。 这是基于这样的概念,即在一起出现的单词更有可能具有相似的含义。 例如,单词 *sun* 与单词 *hot* 相对于单词 *cold* 更有可能出现,因此 *太阳**热*被认为更相似。
我们可以通过检查单个 GLoVe 向量来验证这是正确的:
......
......@@ -13,7 +13,7 @@
# 技术要求
本章中使用的所有代码都可以在[中找到 https://github.com/PacktPublishing/Hands-On-Natural-Language-Processing-with-PyTorch-1.x/tree/master/Chapter5](https://github.com/PacktPublishing/Hands-On-Natural-Language-Processing-with-PyTorch-1.x/tree/master/Chapter5) 。 可以从 [www.heroku.com](http://www.heroku.com) 安装 Heroku。 数据来自 [https://archive.ics.uci.edu/ml/datasets/Sentiment+Labelled+Sentences](https://archive.ics.uci.edu/ml/datasets/Sentiment+Labelled+Sentences)
本章中使用的所有代码都可以在[这个页面](https://github.com/PacktPublishing/Hands-On-Natural-Language-Processing-with-PyTorch-1.x/tree/master/Chapter5)中找到。 可以从 [www.heroku.com](http://www.heroku.com) 安装 Heroku。 数据来自[这里](https://archive.ics.uci.edu/ml/datasets/Sentiment+Labelled+Sentences)
# 构建 RNN
......
......@@ -109,7 +109,7 @@ CNN 背后的基本概念是卷积。 **卷积**本质上是一个滑动窗口
## 定义多类别分类数据集
在上一章中,我们查看了评论的选择,并根据评论是肯定的还是负面的,学习了二进制分类。 对于此任务,我们将查看来自[RECG2] TREC( [https://trec.nist.gov/data/qa.html](https://trec.nist.gov/data/qa.html)数据集的数据,这是用于评估性能的通用数据集 模型的文本分类任务。 数据集由一系列问题组成,每个问题都属于我们训练有素的模型将要学习分类的六大语义类别之一。 这六个类别如下:
在上一章中,我们查看了评论的选择,并根据评论是肯定的还是负面的,学习了二进制分类。 对于此任务,我们将查看来自 [TREC](https://trec.nist.gov/data/qa.html) 数据集的数据,这是用于评估性能的通用数据集 模型的文本分类任务。 数据集由一系列问题组成,每个问题都属于我们训练有素的模型将要学习分类的六大语义类别之一。 这六个类别如下:
![Figure 6.8 – Semantic categories in the TREC dataset ](img/B12365_06_08.jpg)
......
......@@ -50,13 +50,13 @@
* Mac 版 Zipeg / iZip / UnRarX
* 适用于 Linux 的 7-Zip / PeaZip
本书的代码包也托管在 GitHub 的 [https://github.com/PacktPublishing/PyTorch-Artificial-Intelligence-Fundamentals](https://github.com/PacktPublishing/PyTorch-Artificial-Intelligence-Fundamentals) 上。 如果代码有更新,它将在现有的 GitHub 存储库中进行更新。
本书的代码包也托管在 [GitHub](https://github.com/PacktPublishing/PyTorch-Artificial-Intelligence-Fundamentals) 上。 如果代码有更新,它将在现有的 GitHub 存储库中进行更新。
我们还从 **[https://github.com/PacktPublishing/](https://github.com/PacktPublishing/)** 提供了丰富的书籍和视频目录中的其他代码包。 去看一下!
我们还从[这里](https://github.com/PacktPublishing/)提供了丰富的书籍和视频目录中的其他代码包。 去看一下!
# 下载彩色图像
我们还提供了 PDF 文件,其中包含本书中使用的屏幕截图/图表的彩色图像。 您可以在此处下载: [http://www.packtpub.com/sites/default/files/downloads/9781838557041_ColorImages.pdf](http://www.packtpub.com/sites/default/files/downloads/9781838557041_ColorImages.pdf)
我们还提供了 PDF 文件,其中包含本书中使用的屏幕截图/图表的彩色图像。 [您可以在此处下载](http://www.packtpub.com/sites/default/files/downloads/9781838557041_ColorImages.pdf)
# 使用约定
......
......@@ -24,7 +24,7 @@ PyTorch 与 Python 深度集成,具有命令式风格,使用类似 Python
NumPy 是本章必不可少的库,在您安装 PyTorch 时,NumPy 会自动为您安装它的依赖项。 这意味着我们无需显式安装 NumPy。
您可以将 PyTorch 与其他软件包管理器一起安装,例如 conda,如 [https://pytorch.org/](https://pytorch.org/) 中所述。
您可以将 PyTorch 与其他软件包管理器一起安装,例如 conda,如[这个页面](https://pytorch.org/)中所述。
要为 Python3 CPU 安装 PyTorch,我们可以使用以下命令:
......@@ -422,7 +422,7 @@ tensor([[2., 2., 2.],
# 也可以看看
要了解更多信息,请单击 NyPy 桥的 PyTorch 官方文档链接,网址为 [https://pytorch.org/tutorials/beginner/blitz/tensor_tutorial.html#numpy-bridge](https://pytorch.org/tutorials/beginner/blitz/tensor_tutorial.html#numpy-bridge)
要了解更多信息,[请单击 NyPy 桥的 PyTorch 官方文档链接](https://pytorch.org/tutorials/beginner/blitz/tensor_tutorial.html#numpy-bridge)
# 探索渐变
......@@ -560,7 +560,7 @@ PyTorch 有一个名为`autograd`的软件包,可以对张量上的所有操
# 也可以看看
要了解更多信息,可以在 [https://pytorch.org/tutorials/beginner/blitz/autograd_tutorial.html](https://pytorch.org/tutorials/beginner/blitz/autograd_tutorial.html)[https://pytorch.org/docs/stable/查看官方文档 autograd.html](https://pytorch.org/docs/stable/autograd.html)
要了解更多信息,可以在[这里](https://pytorch.org/tutorials/beginner/blitz/autograd_tutorial.html)[这里](https://pytorch.org/docs/stable/autograd.html)查看官方文档
# 在 PyTorch 中查看张量
......@@ -671,4 +671,4 @@ tensor([[4., 5., 6.],
# 也可以看看
有关更多信息,您可以在 [https://pytorch.org/docs/stable/tensors.html#torch.Tensor.view](https://pytorch.org/docs/stable/tensors.html#torch.Tensor.view)[https://pytorch.org/查看文档。 docs / stable / torch.html#torch.reshape](https://pytorch.org/docs/stable/torch.html#torch.reshape)
\ No newline at end of file
有关更多信息,您可以在[这里](https://pytorch.org/docs/stable/tensors.html#torch.Tensor.view)[这里](https://pytorch.org/docs/stable/torch.html#torch.reshape)查看文档。
\ No newline at end of file
......@@ -150,7 +150,7 @@ TorchVision 的`datasets`模块附带了许多受欢迎的数据集; 如果机
# 也可以看看
您可以在[这个页面](https://pytorch.org/docs/stable/torchvision/transforms.html)上查看有关转换的更多详细信息,还可以在 [https://上了解有关定义模型类的更多信息。 pytorch.org/tutorials/beginner/blitz/neural_networks_tutorial.html#sphx-glr-beginner-blitz-neural-networks-tutorial-py](https://pytorch.org/tutorials/beginner/blitz/neural_networks_tutorial.html#sphx-glr-beginner-blitz-neural-networks-tutorial-py)
您可以在[这个页面](https://pytorch.org/docs/stable/torchvision/transforms.html)上查看有关转换的更多详细信息,还可以在[这个页面](https://pytorch.org/tutorials/beginner/blitz/neural_networks_tutorial.html#sphx-glr-beginner-blitz-neural-networks-tutorial-py)上了解有关定义模型类的更多信息
# 创建一个完全连接的网络
......
......@@ -186,7 +186,7 @@ pip install torchtext
# 做好准备
我们将使用此食谱的新闻分类数据集,您可以从 [https://github.com/jibinmathew69/PyTorch1.0-Tutorial/tree/master/NewsClassification](https://github.com/jibinmathew69/PyTorch1.0-Tutorial/tree/master/NewsClassification) 下载该数据集。
我们将使用此食谱的新闻分类数据集,您可以从[这里](https://github.com/jibinmathew69/PyTorch1.0-Tutorial/tree/master/NewsClassification)下载该数据集。
`.csv`文件中包含以下几列:
......
......@@ -31,7 +31,7 @@
# 做好准备
此食谱要求我们下载特定的数据集。 我们将从 [https://www.kaggle.com/paultimothymooney/chest-xray-pneumonia/download](https://www.kaggle.com/paultimothymooney/chest-xray-pneumonia/download) 获取数据集。 为了完成此食谱,您的 PyTorch 安装应为 1.2 或更高版本,强烈建议您使用支持 CUDA 的设备。
此食谱要求我们下载特定的数据集。 我们将从[这里](https://www.kaggle.com/paultimothymooney/chest-xray-pneumonia/download)获取数据集。 为了完成此食谱,您的 PyTorch 安装应为 1.2 或更高版本,强烈建议您使用支持 CUDA 的设备。
# 怎么做...
......@@ -581,4 +581,4 @@ Epoch | Training Loss | Test Loss | Accuracy |
* 您可以在[这个页面](https://pytorch.org/tutorials/beginner/finetuning_torchvision_models_tutorial.html)上了解有关微调的更多信息。
* 您可以在[这个页面](https://pytorch.org/tutorials/beginner/transfer_learning_tutorial.html)上了解另一个转移学习示例。
* 您可以通过 [https://pytorch.org/docs/stable/TensorBoard.html](https://pytorch.org/docs/stable/tensorboard.html) 探索 TensorBoard 函数。
\ No newline at end of file
* 您可以通过[这里](https://pytorch.org/docs/stable/tensorboard.html)探索 TensorBoard 函数。
\ No newline at end of file
......@@ -559,7 +559,7 @@ Epoch : | 005 / 050 |
# 也可以看看
您可以在 [https://pytorch.org/tutorials/beginner/dcgan_faces_tutorial.html](https://pytorch.org/tutorials/beginner/dcgan_faces_tutorial.html) 和 [https://iq.opengenus.org/deep-convolutional 上看到培训和架构 DCGAN 的另一个示例。 -gans-pytorch /](https://iq.opengenus.org/deep-convolutional-gans-pytorch/)
您可以在 [这个页面](https://pytorch.org/tutorials/beginner/dcgan_faces_tutorial.html)和[这个页面](https://iq.opengenus.org/deep-convolutional-gans-pytorch/)上看到培训和架构 DCGAN 的另一个示例
# 可视化 DCGAN 结果
......@@ -739,10 +739,10 @@ Nvidia 最初执行 PGGAN 的过程要花一到两个月的时间。 但是,
# 还有更多...
您可以在 [https://github.com/github-pengge/PyTorch-progressive_growing_of_gans](https://github.com/github-pengge/PyTorch-progressive_growing_of_gans) 探索完整的 PGGAN 实现。
您可以在[这里](https://github.com/github-pengge/PyTorch-progressive_growing_of_gans)探索完整的 PGGAN 实现。
# 也可以看看
您可以在[这个页面](https://pytorch.org/docs/stable/hub.html)上了解有关割炬轮毂的更多信息。
您可以在 [https://github.com/tkarras/progressive_growing_of_gans](https://github.com/tkarras/progressive_growing_of_gans) 和 [https://research.nvidia.com/publication/2017-10_Progressive-Growing-of [](https://research.nvidia.com/publication/2017-10_Progressive-Growing-of) 。
\ No newline at end of file
您可以在[这里](https://github.com/tkarras/progressive_growing_of_gans)和[这里](https://research.nvidia.com/publication/2017-10_Progressive-Growing-of)。
\ No newline at end of file
......@@ -114,7 +114,7 @@ torch.Size([1, 300])
```
如今,嵌入层还用于所有类型的分类输入,而不仅仅是嵌入自然语言。 例如,如果您要为英超联赛预测获胜者,则最好嵌入球队名称或地名,而不是将它们作为一站式编码载体传递给您的网络。
如今,嵌入层还用于所有类型的分类输入,而不仅仅是嵌入自然语言。 例如,如果您要为英超联赛预测获胜者,则最好嵌入球队名称或地名,而不是将它们作为一站式编码向量传递给您的网络。
但是对于我们的用例,`torchtext`将前面的方法包装为一种将输入转换为嵌入的简单方法。 下面是一个示例,其中我们转移了从 GloVe 向量获得的学习信息,以从 Google 新闻中获得对 60 亿个令牌进行训练的预训练嵌入:
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册