提交 e237d2d3 编写于 作者: W wizardforcel

2020-12-30 23:03:31

上级 456c76d5
......@@ -780,7 +780,7 @@ $interpreter = tf.lite.Interpreter(model_path=args.model_file)
现在,让我们执行以下步骤进行图像分类:
1. 使用文件管理器转到`image_classification`目录,即`pi/examples/lite/examples/image_classification/raspberry_pi`。 您将看到一个名为`classify_picamera.py`的文件。 现在,转到 [https://www.tensorflow.org/lite/guide/hosted_models](https://www.tensorflow.org/lite/guide/hosted_models) 并下载对象检测模型以及名为`mobilenet_v2_1.0_224.tflite`和`labels_mobilenet_v2_1.0_224.txt`的`label`文件文件夹。 将这些文件复制到`pi/examples/lite/examples/image_classification/raspberry_pi`中。
1. 使用文件管理器转到`image_classification`目录,即`pi/examples/lite/examples/image_classification/raspberry_pi`。 您将看到一个名为`classify_picamera.py`的文件。 现在,转到[这里](https://www.tensorflow.org/lite/guide/hosted_models)并下载对象检测模型以及名为`mobilenet_v2_1.0_224.tflite`和`labels_mobilenet_v2_1.0_224.txt`的`label`文件文件夹。 将这些文件复制到`pi/examples/lite/examples/image_classification/raspberry_pi`中。
2. 接下来,使用`pi/examples/lite/examples/image_classification/raspberry_pi`使用终端转到目录并执行以下命令:
......@@ -795,7 +795,7 @@ $Python3 classify_picamera.py –model mobilenet_v2_1.0_224.tflite –labels lab
在 Raspberry Pi 上安装 TensorFlow lite 之后,我们现在可以执行对象检测。 按着这些次序:
1. 使用文件管理器进入对象检测目录,即`pi/examples/lite/examples/object_detection/raspberry_pi`。 您将看到一个名为`detect_picamera.py`的文件。
2. 现在,转到 [https://www.tensorflow.org/lite/guide/hosted_models](https://www.tensorflow.org/lite/guide/hosted_models) 并下载名为`coco_ssd_mobilenet_v1_1.0_quant_2018_06_29`的对象检测模型和标签文件文件夹。 在此文件夹中,您将看到两个文件:`detect.tflite`和`labelmap.txt`。
2. 现在,转到[这里](https://www.tensorflow.org/lite/guide/hosted_models)并下载名为`coco_ssd_mobilenet_v1_1.0_quant_2018_06_29`的对象检测模型和标签文件文件夹。 在此文件夹中,您将看到两个文件:`detect.tflite`和`labelmap.txt`。
3. 将这些文件复制到`pi/examples/lite/examples/object_detection/raspberry_pi`中。
4. 接下来,使用`pi/examples/lite/examples/object_detection/raspberry_pi`使用终端转到对象检测目录,并执行以下命令:
......@@ -825,7 +825,7 @@ $Python3 detect_picamera.py –model detect.tflite –labels labelmap.txt
# 适用于 iPhone 的 TensorFlow Lite 转换模型
在本节中,我们将描述如何在 iPhone 上使用 tflite 模型进行对象检测。 有关详细信息,请参阅以下 GitHub 页面上概述的步骤: [https://github.com/tensorflow/examples/tree/master/lite/examples/image_classification/ios](https://github.com/tensorflow/examples/tree/master/lite/examples/image_classification/ios)
在本节中,我们将描述如何在 iPhone 上使用 tflite 模型进行对象检测。 有关详细信息,[请参阅以下 GitHub 页面上概述的步骤](https://github.com/tensorflow/examples/tree/master/lite/examples/image_classification/ios)
本质上,该过程可以分为以下步骤:
......@@ -868,7 +868,7 @@ $pod install
# 核心 ML
Core ML 是 Apple 的机器学习框架,该框架集成了来自 TensorFlow 等各种来源的神经网络模型,并在必要时进行了转换,然后优化了 GPU / CPU 性能以进行设备上的训练和推理,同时最大程度地减小了应用程序尺寸和功耗。 在 WWDC 2019 中引入的 Core ML 3 更新了设备上特定用户数据的神经网络模型,从而消除了设备到云的交互并最大程度地提高了用户隐私。 有关更多信息,请访问 [https://developer.apple.com/machine-learning/core-ml](https://developer.apple.com/machine-learning/core-ml) 。 Core ML 本身建立在诸如 Accelerate 和 BNNS 以及 Metal Performance Shaders 之类的低级基元之上。 所有 Core ML 模型均具有`.mlmodel`扩展名。
Core ML 是 Apple 的机器学习框架,该框架集成了来自 TensorFlow 等各种来源的神经网络模型,并在必要时进行了转换,然后优化了 GPU / CPU 性能以进行设备上的训练和推理,同时最大程度地减小了应用程序尺寸和功耗。 在 WWDC 2019 中引入的 Core ML 3 更新了设备上特定用户数据的神经网络模型,从而消除了设备到云的交互并最大程度地提高了用户隐私。 有关更多信息,请访问[这里](https://developer.apple.com/machine-learning/core-ml)。 Core ML 本身建立在诸如 Accelerate 和 BNNS 以及 Metal Performance Shaders 之类的低级基元之上。 所有 Core ML 模型均具有`.mlmodel`扩展名。
Core ML 的核心部分是 Create ML,它是用于图像分类和对象检测的 Apple 机器学习框架。 该系统类似于 TensorFlow,但使用零编码生成模型更容易。 在 macOS 上,打开 Xcode 并输入`.mlmodel`,如以下屏幕截图所示:
......@@ -889,7 +889,7 @@ Core ML 的核心部分是 Create ML,它是用于图像分类和对象检测
* 最终的训练损失为 0.83,这表明结果非常好–任何低于 1 的值都应表明检测良好。 请注意,仅使用 68 张图像即可获得该图像,这表明我们不需要大量图像即可开发出良好的神经网络模型。
* 请注意,与 TensorFlow 相比,使用 Create ML 开发模型非常容易-绝对零编码,无需转换,也无需前往单独的站点即可查看图表。 一切都紧凑且易于使用。
开发模型后,将其移植到以下用 Swift 编写的视觉框架。 它将检测带有边界框的对象: [https://developer.apple.com/documentation/vision/recognizing_objects_in_live_capture](https://developer.apple.com/documentation/vision/recognizing_objects_in_live_capture)
开发模型后,将其移植到以下用 Swift 编写的视觉框架。 [它将检测带有边界框的对象](https://developer.apple.com/documentation/vision/recognizing_objects_in_live_capture)
以下是有关应用程序开发的一些注意事项:
......@@ -921,20 +921,20 @@ Core ML 的核心部分是 Create ML,它是用于图像分类和对象检测
许多企业将标签工作作为其核心业务模型之一。 每个云服务提供商都与人类标签商合作,为神经网络开发工作执行准确的图像标签服务。 以下是有关在哪里可以找到第三方数据标签服务的一些信息。 请注意,此列表并不全面,因此请在此列表之外进行自己的研究,以找到适合您需求的数据标签服务:
* Google Cloud –数据标签。 有关详细信息,请转到 [https://cloud.google.com/ai-platform/data-labeling/docs](https://cloud.google.com/ai-platform/data-labeling/docs)
* Amazon Sagemaker 地面真相–使用 Amazon Mechanical Turk 进行数据标记。 有关详细信息,请转到 [https://aws.amazon.com/sagemaker/groundtruth](https://aws.amazon.com/sagemaker/groundtruth)
* Hive AI 数据标签服务。 有关详细信息,请转到 [https://thehive.ai](https://thehive.ai)
* Cloud Factory 数据标签服务。 有关详细信息,请转到 [https://www.cloudfactory.com](https://www.cloudfactory.com)
* Google Cloud –数据标签。 有关详细信息,请转到[这里](https://cloud.google.com/ai-platform/data-labeling/docs)
* Amazon Sagemaker 地面真相–使用 Amazon Mechanical Turk 进行数据标记。 有关详细信息,请转到[这里](https://aws.amazon.com/sagemaker/groundtruth)
* Hive AI 数据标签服务。 有关详细信息,请转到[这里](https://thehive.ai)
* Cloud Factory 数据标签服务。 有关详细信息,请转到[这里](https://www.cloudfactory.com)
数据标记服务的成本可能会很高。
# 自动或半自动贴标
在本节中,我们将讨论一个完全免费的自动注释工具,该工具应减少人工标记的程度。 这是英特尔的**计算机视觉注释工具**( **CVAT** )工具,它非常有前途,仅通过加载模型即可执行完整的自动注释作为起点。 您可以在 [https://software.intel.com/zh-cn/articles/computer-vision-annotation-tool-a-universal-approach-to-data-annotation](https://software.intel.com/en-us/articles/computer-vision-annotation-tool-a-universal-approach-to-data-annotation) 中找到有关该工具的更多信息。 。
在本节中,我们将讨论一个完全免费的自动注释工具,该工具应减少人工标记的程度。 这是英特尔的**计算机视觉注释工具**( **CVAT** )工具,它非常有前途,仅通过加载模型即可执行完整的自动注释作为起点。 您可以在[这个页面](https://software.intel.com/en-us/articles/computer-vision-annotation-tool-a-universal-approach-to-data-annotation)中找到有关该工具的更多信息。 。
该工具能够为边界框,多边形和语义分段创建注释,并且还可以执行自动注释。 该工具可以将注释输出为 VOC XML,JSON TXT 或 TFRecord 文件。 这意味着,如果您使用该工具,则无需将图像转换为 TFRecord 形式–您可以直接训练神经网络。 请按照以下步骤学习如何使用该工具:
1. 执行必要的安装。 所有说明均在终端中执行,包括安装 Docker,构建 Docker 映像以及克隆 CVAT 源代码。 可以在 [https://github.com/opencv/cvat/blob/master/cvat/apps/documentation/installation.md](https://github.com/opencv/cvat/blob/master/cvat/apps/documentation/installation.md) 中找到更多信息。
1. 执行必要的安装。 所有说明均在终端中执行,包括安装 Docker,构建 Docker 映像以及克隆 CVAT 源代码。 可以在[这个页面](https://github.com/opencv/cvat/blob/master/cvat/apps/documentation/installation.md)中找到更多信息。
2. 通过转到[这里](https://github.com/opencv/cvat/blob/master/components/tf_annotation/README.md),安装已在 coco 数据集上训练的 Faster R-CNN ResNet 初始 Atrous 模型。
3. 安装 OpenVINO 模型。 如果您使用的是 TensorFlow,则无需安装 OpenVINO 模型-只需直接转到*步骤 4* 。 但是,如果要使用 Intel Open Model Zoo 中的模型或您自己的自定义模型,[请遵循此链接上的说明](https://github.com/opencv/cvat/blob/master/cvat/apps/auto_annotation/README.md)。
4. 打开谷歌浏览器,然后输入`localhost:8080`。 这将打开 CVAT。 请注意,CVAT 当前仅可在 Google Chrome 浏览器上使用。
......
此差异已折叠。
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册