model_optimize_tool 模型转换使用出错
Created by: esun0087
使用背景: 由于官网发布release版本的model_optimize_tool 在对padldle训练之后的模型使用之后, 会出现模型变大的问题, 后来在群里提问, 有人建议使用dev分支下的, 后来手动编译dev的model_optimize_tool, 模型转换成功
之后在使用Paddleslim对模型进行int8量化, 再次使用dev版本下的model_optimize_tool, 结果出现崩溃。 崩溃信息如下: [W 10/21 9:45:33.393 ...dle-Lite/lite/api/model_optimize_tool.cc:55 Main] Load combined-param model. Option model_dir will be ignored [I 10/21 9:45:33.393 ...dle_tool/Paddle-Lite/lite/api/cxx_api.cc:128 Build] load from memory 0 [I 10/21 9:45:33.419 ...e_tool/Paddle-Lite/lite/core/optimizer.h:203 RunPasses] == Running pass: lite_quant_dequant_fuse_pass [F 10/21 9:45:33.419 ...le_tool/Paddle-Lite/lite/core/mir/node.h:115 stmt] Check failed: IsStmt(): Aborted (core dumped)
使用命令如下: ./model_optimize_tool_dev --model_file=models/PaddleSlim/output/float/model --param_file=models/PaddleSlim/output/float/weights --optimize_out_type=naive_buffer --optimize_out=test_opt/ --valid_targets=arm --prefer_int8_kernel=true
模型信息如下 float.zip