Faster-RCNN中RPN的模型优化opt问题
Created by: edencfc
使用PaddleX的faster_rcnn_r50_fpn模型转换时会出现报错:
F0706 21:26:06.841753 1475 kernel.cc:44] Check failed: type no type registered for kernel [generate_proposals/def] output argument [RpnRoisLod]
*** Check failure stack trace: ***
Aborted (core dumped
但是使用paddle_lite_opt --print_model_ops=true --model_dir=inference_model/faster_rcnn_r50_fpn --valid_targets=arm
命令查看结果显示支持该模型Paddle-Lite supports this model!
但是如果不使用RPN,FasterRCNN的模型优化opt是支持的,使用PaddleX中的faster_rcnn_r50_vd模型,下面的命令可以执行成功:
paddle_lite_opt \
--model_file=inference_model/faster_rcnn_r50_vd/__model__ \
--param_file=inference_model/faster_rcnn_r50_vd/__params__ \
--optimize_out_type=naive_buffer \
--optimize_out=mobile_npu_model \
--valid_targets=npu,arm