提交 cc749622 编写于 作者: W wizardforcel

2021-01-10 22:59:27

上级 8fca6c8a
......@@ -539,7 +539,7 @@ ResNet 在`n`的各种值上的性能显示在“表 2.2.2”中。
调用`model.fit()`方法时,会提供**回调**变量。 与原始论文相似,`tf.keras`实现使用数据扩充`ImageDataGenerator()`来提供其他训练数据作为正则化方案的一部分。 随着训练数据数量的增加,概括性将会提高。
例如,简单的数据增强就是翻转一条狗的照片,如图“图 2.2.6”(`horizontal_flip = True`)所示。 如果它是狗的图像,则翻转的图像仍然是狗的图像。 您还可以执行其他变换,例如缩放,旋转,变白等等,并且标签将保持不变:
例如,简单的数据扩充就是翻转一条狗的照片,如图“图 2.2.6”(`horizontal_flip = True`)所示。 如果它是狗的图像,则翻转的图像仍然是狗的图像。 您还可以执行其他变换,例如缩放,旋转,变白等等,并且标签将保持不变:
![A brown and white dog looking at the camera Description automatically generated](img/B14853_02_09.png)
......
......@@ -1182,7 +1182,7 @@ class DataGenerator(Sequence):
* `iou()`计算相对于地面真值边界框的每个锚点框的 IoU。
* `get_gt_data()`为每个锚框分配地面真实等级和偏移量。
样本数据增强功能也包括在内,但此处不再讨论,例如添加随机噪声,强度重新缩放和曝光调整。 `__data_generation()`返回输入`x`和输出`y`对,其中张量`x`存储输入图像,而张量`y`捆绑类,偏移量 ,和面具一起。
样本数据扩充功能也包括在内,但此处不再讨论,例如添加随机噪声,强度重新缩放和曝光调整。 `__data_generation()`返回输入`x`和输出`y`对,其中张量`x`存储输入图像,而张量`y`捆绑类,偏移量 ,和面具一起。
“列表 11.9.2”:`data_generator.py`
......@@ -1517,7 +1517,7 @@ def nms(args, classes, offsets, anchors):
权重在 GitHub 上可用。
在 mIoU 上,最佳性能是非归一化偏移选项,而归一化偏移设置具有最高的平均精度和召回率。 考虑到训练数据集中只有 1,000 张图像,性能并不是最新技术。 也没有应用数据增强
在 mIoU 上,最佳性能是非归一化偏移选项,而归一化偏移设置具有最高的平均精度和召回率。 考虑到训练数据集中只有 1,000 张图像,性能并不是最新技术。 也没有应用数据扩充
从结果来看,使用损失函数的改进会降低性能。 使用平滑 L1 或焦距损失函数或同时使用两者时,会发生这种情况。“图 11.13.1”至“图 11.13.5”显示了样本预测。 可以通过执行以下操作获得图像上的对象检测:
......
......@@ -8,7 +8,7 @@
* 使用图像哈希和过滤检测边缘
* 从图像中提取特征
* 使用轮廓和 HOG 检测器进行对象检测
* 使用轮廓和 HOG 检测器对象检测
* TensorFlow,其生态系统和安装概述
# 技术要求
......@@ -39,7 +39,7 @@ print hamming_distance(hash1,hash2)
1. 使用拜耳过滤器形成彩色图案
2. 创建图像向量
3. 变换图像
4. 线性过滤-与内核进行卷积
4. 线性过滤 - 使用核的卷积
5. 混合高斯和拉普拉斯过滤器
6. 检测图像边缘
......@@ -551,7 +551,7 @@ RGB 颜色如下:
在上图中可以看到一个遥控器,叉子,刀子和一个塑料杯。 请注意,苹果,橘子和塑料杯的 HOG 功能如何相似,这是预期的,因为它们都是圆形的:
* 塑料杯周围没有包围,因为未检测到。
* 塑料杯周围没有包围,因为未检测到。
* 与苹果和橘子相比,叉子和刀子的 HOG 角形非常不同。
* 遥控器具有矩形的 HOG 形状。
......
......@@ -8,8 +8,8 @@
* 使用 LBP 处理图像
* 将 LBP 应用于纹理识别
* 使面部颜色与基础色匹配-LBP 及其局限性
* 使用基础色匹配面部颜色-颜色匹配技术
* 使面部颜色与基础色匹配 - LBP 及其局限性
* 使用基础色匹配面部颜色 - 颜色匹配技术
# 使用 LBP 处理图像
......
......@@ -344,7 +344,7 @@ plt.show()
1. 导入功能-`Sequential``Conv2D``MaxPooling2D``AvgPooling2D``Dense``Activation``Dropout``Flatten`
2. 导入`ImageDataGenerator`-通过实时增强(定向)生成一批张量图像。
3. 确定分类的批量大小和期。
3. 确定分类的批量大小和期。
4. 数据集-训练,测试和调整大小`(48, 48)`
5. 建立 CNN 架构(如下图所示)。
6. 使用`fit-generator()`功能训练开发的模型。
......@@ -366,7 +366,7 @@ plt.show()
* 3D 重建的硬件设计概述
* 3D 重建和跟踪概述
* 参数跟踪概述
* 参数跟踪概述
# 3D 重建的硬件设计概述
......@@ -394,7 +394,7 @@ plt.show()
面部跟踪模型将投影的线性 3D 模型用于摄像机输入。 它执行以下操作:
* 跟踪从前一帧到当前帧的视觉特征
* 对齐 2D 形状跟踪特征
* 对齐 2D 形状跟踪特征
* 根据深度测量计算 3D 点云数据
* 最小化损失函数
......
......@@ -36,9 +36,9 @@ CNN 的图像过滤和处理方法包括执行多种操作,所有这些操作
* 激活
* 全连接层
* 正则化
* 退出
* 丢弃
* 内部协方差平移和批量归一化
* 软最大
* Softmax
下图说明了 CNN 及其组件:
......@@ -181,8 +181,8 @@ CNN 的图像过滤和处理方法包括执行多种操作,所有这些操作
以下是丢弃的优点:
* 丢弃迫使神经网络学习更强大的功能
* 每个期的训练时间较少,但是迭代次数增加了一倍。
* 丢弃迫使神经网络学习更强大的特征
* 每个期的训练时间较少,但是迭代次数增加了一倍。
* 丢弃可提高准确率-约 1-2%。
# 内部协方差平移和批量归一化
......
......@@ -8,7 +8,7 @@
* AlexNet 概述
* VGG16 概述
* 初始概述
* 初始模型概述
* ResNet 概述
* R-CNN 概述
* 快速 R-CNN 概述
......@@ -34,7 +34,7 @@ AlexNet 的基本思想总结如下:
* 它使用大型内核过滤器-第一层有 96 个大小为`11 x 11`的过滤器,第二层有 256 个大小为`11 x 11`的过滤器,第三层和第四层有 384 个大小为`11 x 11`的过滤器,以及第五层有 256 个大小为`3 x 5`的过滤器。
* ReLU 激活层在每个卷积和全连接层之后应用。 它的训练比 Tanh 快得多。
* 丢弃正则化应用于第一和第二全连接层。
* 两种数据增强技术可减少过拟合:
* 两种数据扩充技术可减少过拟合:
* 根据`256 x 256`的图像大小创建`256 x 256`的随机色块,并执行平移和水平反射
* 更改训练图像中 RGB 通道的强度
* 训练是在两个 GPU 上进行的,在 5 或 6 天内要进行 90 个时期的训练,以在两个 Nvidia GeForce 高端 GTX 580 GPU 上进行训练。
......@@ -227,7 +227,7 @@ VGG16 的基本思想总结如下:
* `1 x 1`卷积,带 128 个过滤器,用于减小尺寸和校正线性激活
* 具有 1,024 个单元和 ReLU 激活的全连接层
*包层,其丢包比率为 70%
*弃层,其丢弃比率为 70%
* 一个具有 softmax 损失的线性层作为分类器(预测与主分类器相同的 1,000 个分类,但在推理时将其删除)
下图说明了初始网络中的 CNN 过滤器及其对应的连接:
......@@ -356,7 +356,7 @@ R-CNN 在对象检测方面比以前的任何一种方法都有了更显着的
3. 对于每个区域提议,使用**兴趣区域****RoI**)最大池来提取固定长度的特征向量(`h = 7 x w = 7`)。
4. 此特征向量值成为由两个分支分隔的**全连接****FC**)层的输入:
* 用于分类概率的 Softmax
* 用于类别概率的 Softmax
* 每个对象类别的边界框位置和大小(`x``y`,宽度,高度)。
所有网络权重都使用反向传播进行训练,并且在前向和后向路径之间共享计算和内存,以进行损耗和权重计算; 这将大型网络中的训练时间从 84 小时(R-CNN)减少到 9.5 小时(快速 R-CNN)。 快速 R-CNN 使用 softmax 分类器代替 SVM(R-CNN)。 下表针对小型(S),中型(M)和大型(L)网络显示 softmax 的平均平均精度略胜于 SVM 的平均精度:
......@@ -408,7 +408,7 @@ R-CNN 和 Fast R-CNN 都依赖于选择性搜索方法来开发 2,000 个区域
用于回归的特征具有相同的空间大小(高度和宽度)。 在实际图像中,特征尺寸可以不同。 通过使用具有不同回归比例和纵横比的可变包围盒大小来考虑到这一点。 RPN 和对象检测之间的卷积功能使用以下原则共享:
* RPN 使用二进制课程级别进行训练。
* RPN 使用二进制别进行训练。
* 检测网络通过快速 R-CNN 方法进行训练,并通过使用 RPN 训练的 ImageNet 预训练模型进行初始化。
* 通过保持共享卷积层固定并仅微调 RPN 唯一的层来初始化 RPN 训练。
* 前面的步骤导致两个网络的共享。
......@@ -472,7 +472,7 @@ GAN 的一些实际用例如下:
* 合并图像以形成新的数据集
* 生成卡通人物
* 从 2D 图像生成 3D 人脸和对象
* 语义图像翻译
* 语义图像翻译
* 从不同的彩色图像生成一组彩色图像
* 文字到图片翻译
* 人体姿势估计
......@@ -503,7 +503,7 @@ GAN 的一些实际用例如下:
* `h[n]`为当前节点`n`的状态嵌入
* `h_ne[n]`为节点`n`邻域的状态嵌入
* `x[n]`为节点`n`的特征
* `xe[n]`为节点`n`边的特征
* `xe[n]`为节点`n`边的特征
* `x_ne[n]`为节点`n`的邻域特征
* `o[n]`为节点`n`的输出
......
......@@ -246,7 +246,7 @@ base_model = ResNet50(weights='imagenet',include_top=False,input_shape=(img_heig
# 建立输入数据管道
我们将导入一个图像数据生成器,该图像数据生成器使用诸如旋转,水平翻转,垂直翻转和数据预处理之类的数据增强来生成张量图像。 数据生成器将重复训练和验证数据。
我们将导入一个图像数据生成器,该图像数据生成器使用诸如旋转,水平翻转,垂直翻转和数据预处理之类的数据扩充来生成张量图像。 数据生成器将重复训练和验证数据。
# 训练数据生成器
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册