Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenHarmony
Docs
提交
d45c41b2
D
Docs
项目概览
OpenHarmony
/
Docs
1 年多 前同步成功
通知
159
Star
292
Fork
28
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
Docs
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
d45c41b2
编写于
8月 03, 2023
作者:
葛
葛亚芳
提交者:
Gitee
8月 03, 2023
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
update zh-cn/application-dev/napi/neural-network-runtime-guidelines.md.
Signed-off-by:
N
葛亚芳
<
geyafang@huawei.com
>
上级
1c5fc901
变更
1
显示空白变更内容
内联
并排
Showing
1 changed file
with
8 addition
and
4 deletion
+8
-4
zh-cn/application-dev/napi/neural-network-runtime-guidelines.md
...application-dev/napi/neural-network-runtime-guidelines.md
+8
-4
未找到文件。
zh-cn/application-dev/napi/neural-network-runtime-guidelines.md
浏览文件 @
d45c41b2
...
...
@@ -19,13 +19,14 @@ Neural Network Runtime部件的环境要求如下:
-
开发环境:Ubuntu 18.04及以上。
-
接入设备:OpenHarmony定义的标准设备,并且系统中内置的硬件加速器驱动,已通过HDI接口对接Neural Network Runtime。
由于Neural Network Runtime通过OpenHarmony Native API对外开放,需要通过OpenHarmony的Native开发套件编译Neural Network Runtime应用。
在社区的
[
每日构建
](
http://ci.openharmony.cn/dailys/dailybuilds
)
下载对应系统版本的ohos-sdk压缩包,从压缩包中提取对应平台的Native开发套件。以Linux为例,Native开发套件的压缩包命名为
`native-linux-{版本号}.zip`
。
由于Neural Network Runtime通过OpenHarmony Native API对外开放,需要通过OpenHarmony的Native开发套件编译Neural Network Runtime应用。
### 环境搭建
1.
打开Ubuntu编译服务器的终端。
2.
把
下载好的
Native开发套件压缩包拷贝至当前用户根目录下。
2.
把Native开发套件压缩包拷贝至当前用户根目录下。
3.
执行以下命令解压Native开发套件的压缩包。
```
shell
unzip native-linux-
{
版本号
}
.zip
```
...
...
@@ -470,16 +471,19 @@ Neural Network Runtime的开发流程主要包含**模型构造**、**模型编
> 模型的IR需要传递到硬件驱动层,由HDI服务将统一的IR图,编译成硬件专用的计算图,编译的过程非常耗时。Neural Network Runtime支持计算图缓存的特性,可以将HDI服务编译生成的计算图,缓存到设备存储中。当下一次在同一个加速芯片上编译同一个模型时,通过指定缓存的路径,Neural Network Runtime可以直接加载缓存文件中的计算图,减少编译消耗的时间。
检查缓存目录下的缓存文件:
```shell
ls /data/local/tmp
```
以下为打印结果:
```text
# 0.nncache cache_info.nncache
```
如果缓存不再使用,需要手动删除缓存,可以参考以下命令,删除缓存文件。
```shell
rm /data/local/tmp/*nncache
```
...
...
@@ -487,5 +491,5 @@ Neural Network Runtime的开发流程主要包含**模型构造**、**模型编
## 相关实例
第三方AI推理框架对接Neural Network Runtime的流程,可以参考以下相关实例:
-
[
Tensorflow Lite接入NNRt Delegate开发指南
](
https://gitee.com/openharmony/neural_network_runtime/tree/master/example/deep_learning_framework
)
<!--no_check-->
-
[
Tensorflow Lite接入NNRt Delegate开发指南
](
https://gitee.com/openharmony/ai_neural_network_runtime/tree/master/example/deep_learning_framework
)
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录