Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
X2Paddle
提交
a834dd82
X
X2Paddle
项目概览
PaddlePaddle
/
X2Paddle
大约 1 年 前同步成功
通知
328
Star
698
Fork
167
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
26
列表
看板
标记
里程碑
合并请求
4
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
X
X2Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
26
Issue
26
列表
看板
标记
里程碑
合并请求
4
合并请求
4
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
a834dd82
编写于
3月 14, 2022
作者:
J
Jason
提交者:
GitHub
3月 14, 2022
浏览文件
操作
浏览文件
下载
差异文件
Merge pull request #758 from wjj19950828/update_readme
Update lite readme
上级
d04514cc
6e6dc9cd
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
3 addition
and
0 deletion
+3
-0
docs/inference_model_convertor/convert2lite_api.md
docs/inference_model_convertor/convert2lite_api.md
+3
-0
未找到文件。
docs/inference_model_convertor/convert2lite_api.md
浏览文件 @
a834dd82
...
...
@@ -29,6 +29,9 @@ onnx2paddle(model_path, save_dir,
# lite_model_type(str)指定模型转化类型,默认为naive_buffer
```
Notes:
-
```lite_valid_places```
参数目前可支持 arm、 opencl、 x86、 metal、 xpu、 bm、 mlu、 intel_fpga、 huawei_ascend_npu、imagination_nna、 rockchip_npu、 mediatek_apu、 huawei_kirin_npu、 amlogic_npu,可以同时指定多个硬件平台(以逗号分隔,优先级高的在前),opt 将会自动选择最佳方式。如果需要支持华为麒麟 NPU,应当设置为 "huawei_kirin_npu,arm"。
***命令行方式**
*
```
shell
x2paddle
--framework
=
onnx
--model
=
onnx_model.onnx
--save_dir
=
pd_model
--to_lite
=
True
--lite_valid_places
=
arm
--lite_model_type
=
naive_buffer
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录