提交 71ff8090 编写于 作者: M MRXLT

using paddle_serving_app

上级 cf603e0b
...@@ -36,10 +36,15 @@ python -m paddle_serving_server_gpu.serve --model bert_seq20_model/ --port 9292 ...@@ -36,10 +36,15 @@ python -m paddle_serving_server_gpu.serve --model bert_seq20_model/ --port 9292
### 执行预测 ### 执行预测
执行预测前需要安装paddle_serving_app,模块中提供了BERT模型的数据预处理方法。
```
pip install paddle_serving_app
```
执行
``` ```
cat data-c.txt | python bert_client.py cat data-c.txt | python bert_client.py
``` ```
启动client读取data-c.txt中的数据进行预测,预测结果为文本的向量表示(由于数据较多,脚本中没有输出进行打印),server端的地址在脚本中修改。 启动client读取data-c.txt中的数据进行预测,预测结果为文本的向量表示(由于数据较多,脚本中没有输出进行打印),server端的地址在脚本中修改。
### 启动HTTP预测服务 ### 启动HTTP预测服务
``` ```
......
...@@ -25,12 +25,11 @@ from paddlehub.common.logger import logger ...@@ -25,12 +25,11 @@ from paddlehub.common.logger import logger
import socket import socket
from paddle_serving_client import Client from paddle_serving_client import Client
from paddle_serving_client.utils import benchmark_args from paddle_serving_client.utils import benchmark_args
from bert_reader import BertReader from paddle_serving_app import ChineseBertReader
args = benchmark_args() args = benchmark_args()
fin = open("data-c.txt") reader = ChineseBertReader(max_seq_len=20)
reader = BertReader(vocab_file="vocab.txt", max_seq_len=128)
fetch = ["pooled_output"] fetch = ["pooled_output"]
endpoint_list = ["127.0.0.1:9494"] endpoint_list = ["127.0.0.1:9494"]
client = Client() client = Client()
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册