未验证 提交 d45c41b2 编写于 作者: 葛亚芳 提交者: Gitee

update zh-cn/application-dev/napi/neural-network-runtime-guidelines.md.

Signed-off-by: N葛亚芳 <geyafang@huawei.com>
上级 1c5fc901
......@@ -19,13 +19,14 @@ Neural Network Runtime部件的环境要求如下:
- 开发环境:Ubuntu 18.04及以上。
- 接入设备:OpenHarmony定义的标准设备,并且系统中内置的硬件加速器驱动,已通过HDI接口对接Neural Network Runtime。
由于Neural Network Runtime通过OpenHarmony Native API对外开放,需要通过OpenHarmony的Native开发套件编译Neural Network Runtime应用。在社区的[每日构建](http://ci.openharmony.cn/dailys/dailybuilds)下载对应系统版本的ohos-sdk压缩包,从压缩包中提取对应平台的Native开发套件。以Linux为例,Native开发套件的压缩包命名为`native-linux-{版本号}.zip`
由于Neural Network Runtime通过OpenHarmony Native API对外开放,需要通过OpenHarmony的Native开发套件编译Neural Network Runtime应用。
### 环境搭建
1. 打开Ubuntu编译服务器的终端。
2.下载好的Native开发套件压缩包拷贝至当前用户根目录下。
2. 把Native开发套件压缩包拷贝至当前用户根目录下。
3. 执行以下命令解压Native开发套件的压缩包。
```shell
unzip native-linux-{版本号}.zip
```
......@@ -470,16 +471,19 @@ Neural Network Runtime的开发流程主要包含**模型构造**、**模型编
> 模型的IR需要传递到硬件驱动层,由HDI服务将统一的IR图,编译成硬件专用的计算图,编译的过程非常耗时。Neural Network Runtime支持计算图缓存的特性,可以将HDI服务编译生成的计算图,缓存到设备存储中。当下一次在同一个加速芯片上编译同一个模型时,通过指定缓存的路径,Neural Network Runtime可以直接加载缓存文件中的计算图,减少编译消耗的时间。
检查缓存目录下的缓存文件:
```shell
ls /data/local/tmp
```
以下为打印结果:
```text
# 0.nncache cache_info.nncache
```
如果缓存不再使用,需要手动删除缓存,可以参考以下命令,删除缓存文件。
```shell
rm /data/local/tmp/*nncache
```
......@@ -487,5 +491,5 @@ Neural Network Runtime的开发流程主要包含**模型构造**、**模型编
## 相关实例
第三方AI推理框架对接Neural Network Runtime的流程,可以参考以下相关实例:
- [Tensorflow Lite接入NNRt Delegate开发指南](https://gitee.com/openharmony/neural_network_runtime/tree/master/example/deep_learning_framework)
<!--no_check-->
- [Tensorflow Lite接入NNRt Delegate开发指南](https://gitee.com/openharmony/ai_neural_network_runtime/tree/master/example/deep_learning_framework)
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册