diff --git a/docs/tutorials/deploy/deploy_server/deploy_cpp/deploy_cpp_linux.md b/docs/tutorials/deploy/deploy_server/deploy_cpp/deploy_cpp_linux.md index e7643597fa12189a719406113beee53df2e0d1c4..c3d9c40162075c7dd0c20e6ece35fd78bce2925e 100755 --- a/docs/tutorials/deploy/deploy_server/deploy_cpp/deploy_cpp_linux.md +++ b/docs/tutorials/deploy/deploy_server/deploy_cpp/deploy_cpp_linux.md @@ -115,8 +115,9 @@ yaml-cpp.zip文件下载后无需解压,在cmake/yaml.cmake中将`URL https:// ### Step5: 预测及可视化 -参考[导出inference模型](../../deploy_python.html#inference)将模型导出为inference格式模型。 -**注意:由于PaddleX代码的持续更新,版本低于1.0.0的模型暂时无法直接用于预测部署,参考[模型版本升级](../../upgrade_version.md)对模型版本进行升级。** +**在加载模型前,请检查你的模型目录中文件应该包括model.yml、__model__和__params__三个文件。如若不满足这个条件,请参考模型导出为Inference文档将模型导出为部署格式。** + +> **注意:由于PaddleX代码的持续更新,版本低于1.0.0的模型(模型版本可查看model.yml文件中的version字段)暂时无法直接用于预测部署,参考模型版本升级对模型版本进行升级。** 编译成功后,预测demo的可执行程序分别为`build/demo/detector`,`build/demo/classifer`,`build/demo/segmenter`,用户可根据自己的模型类型选择,其主要命令参数说明如下: