提交 1cedd176 编写于 作者: M MRXLT

using paddle_serving_app

上级 43d23bc0
......@@ -36,10 +36,15 @@ python -m paddle_serving_server_gpu.serve --model bert_seq20_model/ --port 9292
### 执行预测
执行预测前需要安装paddle_serving_app,模块中提供了BERT模型的数据预处理方法。
```
pip install paddle_serving_app
```
执行
```
cat data-c.txt | python bert_client.py
```
启动client读取data-c.txt中的数据进行预测,预测结果为文本的向量表示(由于数据较多,脚本中没有输出进行打印),server端的地址在脚本中修改。
启动client读取data-c.txt中的数据进行预测,预测结果为文本的向量表示(由于数据较多,脚本中没有输出进行打印),server端的地址在脚本中修改。
### 启动HTTP预测服务
```
......
......@@ -25,12 +25,11 @@ from paddlehub.common.logger import logger
import socket
from paddle_serving_client import Client
from paddle_serving_client.utils import benchmark_args
from bert_reader import BertReader
from paddle_serving_app import ChineseBertReader
args = benchmark_args()
fin = open("data-c.txt")
reader = BertReader(vocab_file="vocab.txt", max_seq_len=128)
reader = ChineseBertReader(max_seq_len=20)
fetch = ["pooled_output"]
endpoint_list = ["127.0.0.1:9494"]
client = Client()
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册