提交 1bdf135d 编写于 作者: W wizardforcel

2021-01-18 14:30:40

上级 1ce03f1a
......@@ -34,7 +34,7 @@ CNN 是处理图像数据问题时的理想架构。 但是,由于它们通常
图 4.1:展平矩阵的表示
CNN 能够捕获图像的空间相关性,因为它根据滤镜的大小将它们作为矩阵进行处理并一次分析整个图像块。 例如,使用大小为 3 x 3 的滤镜的卷积层将一次分析 9 个像素,直到它覆盖了整个图像。
CNN 能够捕获图像的空间相关性,因为它根据滤镜的大小将它们作为矩阵进行处理并一次分析整个图像块。 例如,使用大小为`3 x 3`的滤镜的卷积层将一次分析 9 个像素,直到它覆盖了整个图像。
图像的每个块都具有一组参数(权重和偏差),这些参数将取决于该组像素与整个图像的相关性,具体取决于手边的滤镜。 这意味着垂直边缘滤镜将为包含垂直边缘的图像块分配更大的权重。 据此,通过减少参数数量并通过分块分析图像,CNN 可以呈现更好的图像表示形式。
......@@ -131,7 +131,7 @@ CNN 可以执行不同的任务,这些任务适用于所有监督学习问题
图 4.7:卷积层的输出高度,宽度和深度
此处,`h`表示输入图像的高度,`w`表示宽度,`c`表示深度(也称为通道),`f`h 和`f`w 是用户关于滤镜尺寸设置的值。
此处,`h`表示输入图像的高度,`w`表示宽度,`c`表示深度(也称为通道),`fh``fw`是用户关于滤镜尺寸设置的值。
下图以矩阵形式描述了此尺寸转换,其中左侧的矩阵表示彩色图像,中间的矩阵表示将应用于图像所有通道的单个滤镜,而矩阵将应用于矩阵。 右边是图像和滤镜计算的输出:
......@@ -155,7 +155,7 @@ CNN 可以执行不同的任务,这些任务适用于所有监督学习问题
**填充**
顾名思义,padding 参数将图像填充为零。 这意味着它将在图像的每一侧添加其他像素(用零填充)。
顾名思义,填充参数将图像填充为零。 这意味着它将在图像的每一侧添加其他像素(用零填充)。
下图显示了一个示例,该示例已在每侧用一个图像填充:
......@@ -167,9 +167,9 @@ CNN 可以执行不同的任务,这些任务适用于所有监督学习问题
为了更好地理解填充的概念,请考虑以下情形。
3 x 3 滤镜应用于形状为 32 x 32 x 3 的彩色图像将得到形状为 30 x 30 x 1 的矩阵。这意味着下一层的输入已缩小。 但是,通过向输入图像添加 1 的填充,输入的形状将更改为 34 x 34 x 3,这将导致使用相同滤镜的输出为 32 x 32 x 1
`3 x 3`滤镜应用于形状为`32 x 32 x 3`的彩色图像将得到形状为`30 x 30 x 1`的矩阵。这意味着下一层的输入已缩小。 但是,通过向输入图像添加 1 的填充,输入的形状将更改为`34 x 34 x 3`,这将导致使用相同滤镜的输出为`32 x 32 x 1`
使用 padding 时,以下公式可用于计算输出宽度:
使用填充时,以下公式可用于计算输出宽度:
![Figure 4.11: Output width after applying a convolutional layer using padding ](img/B15778_04_11.jpg)
......@@ -323,7 +323,7 @@ class CNN_network(nn.Module):
此练习不需要编码,而是由基于我们前面提到的概念的计算组成。
考虑以下几组层,并在所有转换结束时指定输出层的形状,并考虑 256 x 256 x 3 的输入图像:
考虑以下几组层,并在所有转换结束时指定输出层的形状,并考虑`256 x 256 x 3`的输入图像:
1. 卷积层,具有 16 个大小为 3 的滤镜,步幅和填充为 1。
2. 池层还具有大小为 2 的过滤器以及大小为 2 的步幅。
......@@ -563,14 +563,14 @@ test_loader = torch.utils.data.DataLoader(test_data, \
展平图像后,滤除项设置为 20%。
线性 1:一个全连接层,接收上一层的展平矩阵作为输入,并生成 100 个单位的输出。 为此层使用 ReLU 激活函数。 此处,辍学期限设置为 20%。
Linear1:一个全连接层,接收上一层的展平矩阵作为输入,并生成 100 个单位的输出。 为此层使用 ReLU 激活函数。 此处,辍学期限设置为 20%。
Linear2:一个全连接层,可生成 10 个输出,每个类标签一个。 将`log_softmax`激活函数用于输出层。
7. 定义训练模型所需的所有参数。 将纪元数设置为 50。
8. 训练您的网络,并确保保存训练和验证集的损失和准确率值。
9. 绘制两组的损失和准确率。
0. 在测试集上检查模型的准确度--它应该在 72%左右。
0. 在测试集上检查模型的准确度--它应该在 72% 左右。
注意
......@@ -582,7 +582,7 @@ test_loader = torch.utils.data.DataLoader(test_data, \
# 数据扩充
学习如何有效地编码神经网络是开发性能良好的解决方案所涉及的步骤之一。 此外,要开发出色的深度学习解决方案,至关重要的是找到一个感兴趣的领域,我们可以在其中提供解决当前挑战的解决方案。 但是一旦完成所有这些操作,我们通常会面临相同的问题:通过自收集或通过从 Internet 和其他可用来源下载来获得适当大小的数据集以从模型中获得良好的性能。
学习如何有效地编码神经网络是开发性能良好的解决方案所涉及的步骤之一。 此外,要开发出色的深度学习解决方案,至关重要的是找到一个感兴趣的领域,我们可以在其中提供解决当前挑战的解决方案。 但是一旦完成所有这些操作,我们通常会面临相同的问题:通过自收集或通过从互联网和其他可用来源下载来获得适当大小的数据集以从模型中获得良好的性能。
您可能会想到,即使现在可以收集和存储大量数据,但由于与之相关的成本,这并不是一件容易的事。 因此,在大多数情况下,我们只能处理包含数万个条目的数据集,而在引用图像时甚至更少。
......@@ -661,7 +661,7 @@ test_data = datasets.CIFAR10('data', train=False, download=True, \
如我们所见,定义了一个字典,其中包含用于训练和测试集的一组转换。 然后,可以调用字典以将转换相应地应用于每个集合。
## 活动 4.02:Im 补充数据增强
## 活动 4.02:图像数据增强
在此活动中,数据增强将引入到我们在上一个活动中创建的模型中,以测试其准确率是否可以提高。 让我们看一下以下情况。
......@@ -770,7 +770,7 @@ class CNN(nn.Module):
图 4.22:结果图显示了集合的丢失
4. 计算结果模型在测试集上的准确度--它应该是 78%左右。
4. 计算结果模型在测试集上的准确度--它应该是 78% 左右。
注意
......
......@@ -672,7 +672,7 @@ while starter[-1] != "." and counter < 50:
注意
可以在 Internet 上免费访问此活动中将使用的文本数据,尽管您也可以在本书的 GitHub 存储库中找到它。 在本章的简介中提到了存储库的 URL。
可以在互联网上免费访问此活动中将使用的文本数据,尽管您也可以在本书的 GitHub 存储库中找到它。 在本章的简介中提到了存储库的 URL。
在本活动中,我们将使用《爱丽丝梦游仙境》 一书训练 LSTM 网络,以便我们可以将一个起始语句输入模型并使其完成该语句。 请考虑以下情形:您喜欢使生活更轻松的事物,并决定建立一个模型来帮助您在编写电子邮件时完成句子。 为此,您已决定使用一本流行的儿童读物来训练网络。 请按照以下步骤完成此活动:
......
......@@ -337,7 +337,7 @@ This is only the first th
尽管这在性能以及通过构建深层 NLP 模型可以实现的功能方面给人留下深刻的印象,但确实引起了人们对此类模型的道德规范以及如何使用(和滥用它们)的担忧。
随着“假新闻”的兴起和使用互联网的错误信息的传播,类似的示例说明了使用这些模型生成逼真的文本是多么简单。 让我们考虑一个示例,其中代理希望在线上生成有关多个主题的虚假新闻。 现在,他们甚至不需要自己编写虚假信息。 从理论上讲,他们可以训练 NLP 模型为他们执行此操作,然后再在 Internet 上散布这些虚假信息。 GPT-2 的作者在训练并将模型发布给公众时特别注意这一点,并指出该模型有可能被滥用和滥用,因此只有在他们看不到证据的情况下才向公众发布更大更复杂的模型。 较小型号的误用。
随着“假新闻”的兴起和使用互联网的错误信息的传播,类似的示例说明了使用这些模型生成逼真的文本是多么简单。 让我们考虑一个示例,其中代理希望在线上生成有关多个主题的虚假新闻。 现在,他们甚至不需要自己编写虚假信息。 从理论上讲,他们可以训练 NLP 模型为他们执行此操作,然后再在互联网上散布这些虚假信息。 GPT-2 的作者在训练并将模型发布给公众时特别注意这一点,并指出该模型有可能被滥用和滥用,因此只有在他们看不到证据的情况下才向公众发布更大更复杂的模型。 较小型号的误用。
这可能成为 NLP 深度学习向前发展的重点。 当我们使用可以接近人类复杂程度的聊天机器人和文本生成器(例如 GPT-2)时,需要充分了解对这些模型的使用和误用。 研究表明,GPT-2 生成的文本被认为与《纽约时报》的真实人类书面文章(83% )几乎一样可信(72% )。 随着将来我们继续开发更复杂的深层 NLP 模型,随着模型生成的文本变得越来越现实,这些数字可能会收敛。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册