提交 49384cb3 编写于 作者: W wizardforcel

2021-01-06 16:14:35

上级 363bb674
......@@ -584,7 +584,7 @@ s3:// sample1/DEMO/s3_output_location/
![](img/08e3cdba-f27b-48a0-b2bc-a781720d41c9.png)
请注意,随着模型看到的图像越来越多,上一个屏幕快照中显示的 Precision 值可能会降低。 因此,在 20 张图像上开发的模型比在 100 张图像上开发的模型具有更高的精度。 这是因为在 20 张图像上开发的模型具有较少的训练错误,但具有较高的测试错误(在`test`图像中,无法识别汉堡-仅识别薯条)。 mAP 数是 11 个等距召回级别(0、0.1,…1)上的平均平均精度。 mAP 值不受图像添加的影响。 Performance 参数显示`burger``fries`的值。
请注意,随着模型看到的图像越来越多,上一个屏幕快照中显示的 Precision 值可能会降低。 因此,在 20 张图像上开发的模型比在 100 张图像上开发的模型具有更高的精度。 这是因为在 20 张图像上开发的模型具有较少的训练错误,但具有较高的测试错误(在`test`图像中,无法识别汉堡-仅识别薯条)。 mAP 数是 11 个等距召回级别(0,0.1,...,1)上的平均平均精度。 mAP 值不受图像添加的影响。 `Performance`参数显示`burger``fries`的值。
8. 现在,让我们带回旧的`validation`图像并查看结果。 为此,请单击顶部的“预测”,然后插入`validation`图像。 它将在类周围绘制一个边界框,如下所示:
......@@ -713,7 +713,7 @@ AWS Rekognition 还可以使用`boto`分析本地 PC 上的图像,如[这里](
训练期间引入了 AWS SageMaker。 通过将图像转换为矢量,它也可以用于执行视觉搜索。 有关详细练习,请参阅[这个页面](https://github.com/awslabs/visual-search/blob/master/notebooks/visual-search-feature-generation.ipynb)中描述的 Python 笔记本。
请注意,执行此操作的最佳方法是从 AWS SageMaker 笔记本实例运行此操作。 将此文件(在上一链接中列出)上载到 Jupyter Notebook,然后选择 MXNet Python 软件包。 引用您的 S3 存储桶并执行单元。 分析代码并将其与我们在“第 6 章”,“使用迁移学习的视觉搜索”中学到的内容进行比较。 您将看到基本原理是相同的,只是分析是在云平台上完成的,因此它将具有在“第 6 章”,“使用迁移学习的视觉搜索”中不必处理的多个身份验证级别。
请注意,执行此操作的最佳方法是从 AWS SageMaker 笔记本实例运行此操作。 将此文件(在上一链接中列出)上载到 Jupyter 笔记本,然后选择 MXNet Python 软件包。 引用您的 S3 存储桶并执行单元。 分析代码并将其与我们在“第 6 章”,“使用迁移学习的视觉搜索”中学到的内容进行比较。 您将看到基本原理是相同的,只是分析是在云平台上完成的,因此它将具有在“第 6 章”,“使用迁移学习的视觉搜索”中不必处理的多个身份验证级别。
# 使用 Azure 进行视觉搜索
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册