“de1cde69458c253902971acf005570b94a756139”上不存在“...api-diff/v3.2-beta1/js-apidiff-resource-scheduler.md”
未验证 提交 0413e00f 编写于 作者: O openharmony_ci 提交者: Gitee

!21895 【轻量级 PR】:update zh-cn/application-dev/napi/neural-network-runtime-guidelines.md.

Merge pull request !21895 from 葛亚芳/N/A
...@@ -19,13 +19,14 @@ Neural Network Runtime部件的环境要求如下: ...@@ -19,13 +19,14 @@ Neural Network Runtime部件的环境要求如下:
- 开发环境:Ubuntu 18.04及以上。 - 开发环境:Ubuntu 18.04及以上。
- 接入设备:OpenHarmony定义的标准设备,并且系统中内置的硬件加速器驱动,已通过HDI接口对接Neural Network Runtime。 - 接入设备:OpenHarmony定义的标准设备,并且系统中内置的硬件加速器驱动,已通过HDI接口对接Neural Network Runtime。
由于Neural Network Runtime通过OpenHarmony Native API对外开放,需要通过OpenHarmony的Native开发套件编译Neural Network Runtime应用。在社区的[每日构建](http://ci.openharmony.cn/dailys/dailybuilds)下载对应系统版本的ohos-sdk压缩包,从压缩包中提取对应平台的Native开发套件。以Linux为例,Native开发套件的压缩包命名为`native-linux-{版本号}.zip` 由于Neural Network Runtime通过OpenHarmony Native API对外开放,需要通过OpenHarmony的Native开发套件编译Neural Network Runtime应用。
### 环境搭建 ### 环境搭建
1. 打开Ubuntu编译服务器的终端。 1. 打开Ubuntu编译服务器的终端。
2.下载好的Native开发套件压缩包拷贝至当前用户根目录下。 2. 把Native开发套件压缩包拷贝至当前用户根目录下。
3. 执行以下命令解压Native开发套件的压缩包。 3. 执行以下命令解压Native开发套件的压缩包。
```shell ```shell
unzip native-linux-{版本号}.zip unzip native-linux-{版本号}.zip
``` ```
...@@ -470,16 +471,19 @@ Neural Network Runtime的开发流程主要包含**模型构造**、**模型编 ...@@ -470,16 +471,19 @@ Neural Network Runtime的开发流程主要包含**模型构造**、**模型编
> 模型的IR需要传递到硬件驱动层,由HDI服务将统一的IR图,编译成硬件专用的计算图,编译的过程非常耗时。Neural Network Runtime支持计算图缓存的特性,可以将HDI服务编译生成的计算图,缓存到设备存储中。当下一次在同一个加速芯片上编译同一个模型时,通过指定缓存的路径,Neural Network Runtime可以直接加载缓存文件中的计算图,减少编译消耗的时间。 > 模型的IR需要传递到硬件驱动层,由HDI服务将统一的IR图,编译成硬件专用的计算图,编译的过程非常耗时。Neural Network Runtime支持计算图缓存的特性,可以将HDI服务编译生成的计算图,缓存到设备存储中。当下一次在同一个加速芯片上编译同一个模型时,通过指定缓存的路径,Neural Network Runtime可以直接加载缓存文件中的计算图,减少编译消耗的时间。
检查缓存目录下的缓存文件: 检查缓存目录下的缓存文件:
```shell ```shell
ls /data/local/tmp ls /data/local/tmp
``` ```
以下为打印结果: 以下为打印结果:
```text ```text
# 0.nncache cache_info.nncache # 0.nncache cache_info.nncache
``` ```
如果缓存不再使用,需要手动删除缓存,可以参考以下命令,删除缓存文件。 如果缓存不再使用,需要手动删除缓存,可以参考以下命令,删除缓存文件。
```shell ```shell
rm /data/local/tmp/*nncache rm /data/local/tmp/*nncache
``` ```
...@@ -487,5 +491,5 @@ Neural Network Runtime的开发流程主要包含**模型构造**、**模型编 ...@@ -487,5 +491,5 @@ Neural Network Runtime的开发流程主要包含**模型构造**、**模型编
## 相关实例 ## 相关实例
第三方AI推理框架对接Neural Network Runtime的流程,可以参考以下相关实例: 第三方AI推理框架对接Neural Network Runtime的流程,可以参考以下相关实例:
- [Tensorflow Lite接入NNRt Delegate开发指南](https://gitee.com/openharmony/neural_network_runtime/tree/master/example/deep_learning_framework)
<!--no_check--> - [Tensorflow Lite接入NNRt Delegate开发指南](https://gitee.com/openharmony/ai_neural_network_runtime/tree/master/example/deep_learning_framework)
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册