Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
Paddle-Lite
提交
c1d4f094
P
Paddle-Lite
项目概览
PaddlePaddle
/
Paddle-Lite
通知
332
Star
4
Fork
1
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
271
列表
看板
标记
里程碑
合并请求
78
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle-Lite
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
271
Issue
271
列表
看板
标记
里程碑
合并请求
78
合并请求
78
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
c1d4f094
编写于
9月 19, 2019
作者:
W
Wilber
提交者:
GitHub
9月 19, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
update model_optimize_tool prefer_int8_kernel info (#2082)
添加对Model_optimize_tool页面中prefer_int8_kernel的说明信息
上级
f32567d4
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
1 addition
and
1 deletion
+1
-1
_all_pages/develop/model_optimize_tool.md
_all_pages/develop/model_optimize_tool.md
+1
-1
未找到文件。
_all_pages/develop/model_optimize_tool.md
浏览文件 @
c1d4f094
...
...
@@ -57,7 +57,7 @@ fluid模型有两种形式,combined形式(权重保存为一个param文件
| --optimize_out_type | 输出模型类型,目前支持两种类型:protobuf和naive_buffer,其中naive_buffer是一种更轻量级的序列化/反序列化实现。若您需要在mobile端执行模型预测,请将此选项设置为naive_buffer。默认为protobuf。 |
| --optimize_out | 优化模型的输出路径。 |
| --valid_targets | 指定模型可执行的backend,目前可支持x86、arm、opencl,您可以同时指定多个backend(以空格分隔),Model Optimize Tool将会自动选择最佳方式。默认为arm。 |
| --prefer_int8_kernel |
是否启用int8量化模型
,默认为false。 |
| --prefer_int8_kernel |
若待优化模型为int8量化模型(如量化训练得到的量化模型),则设置该选项为true以使用int8内核函数进行推理加速
,默认为false。 |
*
如果待优化的fluid模型是非combined形式,请设置
`--model_dir`
,忽略
`--model_file`
和
`--param_file`
。
*
如果待优化的fluid模型是combined形式,请设置
`--model_file`
和
`--param_file`
,忽略
`--model_dir`
。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录