Release Note
功能
- 新增以下OP以支持更多X2Paddle 转换的模型:
- exp
- elementwise_div
- assign
- floor
- stack
- reduce_mean
- matmul
- expand
- squeeze
编译
框架
-
MobileConfig
新增接口支持从内存中加载模型
void set_model_buffer(const char* model_buffer,
size_t model_buffer_size,
const char* param_buffer,
size_t param_buffer_size)
示例:
lite_api::MobileConfig config;
config.set_model_buffer(
model_buffer.c_str(), size_model, params_buffer.c_str(), size_params);
auto predictor = lite_api::CreatePaddlePredictor(config);
-
Pass
算子设备类型绑定。在绑定的设备或算子类型未注册时,相应 Pass 不再命中执行。以避免找不到指定设备或算子导致的程序退出。
示例:
REGISTER_MIR_PASS(io_copy_kernel_pick_pass,
paddle::lite::mir::IoCopyKernelPickPass)
.BindTargets({TARGET(kAny)})
.BindKernel("io_copy");
文档
- 完善了 源码编译指南,增加了 Docker环境编译ARM Linux的说明;添加ios编译说明文档
- 完善Paddle-Lite-Demo文档,添加更新库说明
- 编写Lite int8用户使用案例——基于PaddleSlim和Paddle-Lite对模型进行端到端的量化训练和推理执行
- 增加了 架构详解 等开发者文档
bugfix
- 修复
model_optimize_tool
的一系列问题,目前int8量化训练模型可经model_optimize_tool
进行优化输出naive_buffer格式,且输出模型可使用MobileConfig
正确运行int8推理过程。
附件
android
- inference_lite_lib.android.armv7.shared.tar.gz
- inference_lite_lib.android.armv7.tar.gz
- inference_lite_lib.android.armv8.shared.tar.gz
- inference_lite_lib.android.armv8.tar.gz