关于模型部署以及转换的几个问题
Created by: Syencil
- 当我用export_model.py将模型转成infer模式之后,调用x2paddle将其转换为onnx之后,出现了batchnorm和conv维度不匹配的问题
onnxruntime.capi.onnxruntime_pybind11_state.InvalidArgument: [ONNXRuntimeError] : 2 : INVALID_ARGUMENT : Deserialize tensor batch_norm_48.w_0 failed.corrupted protobuf data: tensor shape size(24) does not match the data size(64) in proto
- 提供的ch_det_mv3_db这种模型可以直接用infer_det.py测试吗
- ch_det_mv3_db转成onnx之后精度损失好像非常大