未验证 提交 99c246b7 编写于 作者: littletomatodonkey's avatar littletomatodonkey 提交者: GitHub

fix test infer tipc (#5410)

* fix test infer tipc
上级 aa79d382
......@@ -14,11 +14,11 @@
## 1. 简介
本文档主要介绍飞桨模型在 Linux GPU/CPU 下服务化部署能力的开发规范。主要包含个步骤:
本文档主要介绍飞桨模型在 Linux GPU/CPU 下服务化部署能力的开发规范。主要包含2个步骤:
1. 参考[《Linux GPU/CPU 服务化部署开发文档》](./py_serving.md),在Paddle Inference的模型推理基础上,完成服务化部署能力的开发。
(1) 参考[《Linux GPU/CPU 服务化部署开发文档》](./py_serving.md),在Paddle Inference的模型推理基础上,完成服务化部署能力的开发。
2. 参考[《Linux GPU/CPU 服务化部署测试开发文档》](),完成 TIPC 服务化部署测试开发
(2) 参考[《Linux GPU/CPU 服务化部署测试开发文档》](),完成 TIPC 服务化部署测试开发
在此之前,您需要完成下面的内容(如果您已经开发完基于Paddle Inference的模型推理过程,该步骤可以跳过)。
......@@ -76,5 +76,3 @@ coming soon!
<a name="3.2"></a>
### 3.2 核验点
coming soon!
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册