diff --git a/python/examples/bert/README.md b/python/examples/bert/README.md index f163d256218da98671e8f36ef44b83c670aad4e6..612ba8beb979f5a1ee9d1a8052f73169191f4fd7 100644 --- a/python/examples/bert/README.md +++ b/python/examples/bert/README.md @@ -36,10 +36,15 @@ python -m paddle_serving_server_gpu.serve --model bert_seq20_model/ --port 9292 ### 执行预测 +执行预测前需要安装paddle_serving_app,模块中提供了BERT模型的数据预处理方法。 +``` +pip install paddle_serving_app +``` +执行 ``` cat data-c.txt | python bert_client.py ``` -启动client读取data-c.txt中的数据进行预测,预测结果为文本的向量表示(由于数据较多,脚本中没有讲输出进行打印),server端的地址在脚本中修改。 +启动client读取data-c.txt中的数据进行预测,预测结果为文本的向量表示(由于数据较多,脚本中没有将输出进行打印),server端的地址在脚本中修改。 ### 启动HTTP预测服务 ``` diff --git a/python/examples/bert/bert_client.py b/python/examples/bert/bert_client.py index 7b245e68bcd59939a3d2e6fb64d86f77df1658ad..76e525f9277baf663a3abe2d935dad43f7b47078 100644 --- a/python/examples/bert/bert_client.py +++ b/python/examples/bert/bert_client.py @@ -25,12 +25,11 @@ from paddlehub.common.logger import logger import socket from paddle_serving_client import Client from paddle_serving_client.utils import benchmark_args -from bert_reader import BertReader +from paddle_serving_app import ChineseBertReader args = benchmark_args() -fin = open("data-c.txt") -reader = BertReader(vocab_file="vocab.txt", max_seq_len=128) +reader = ChineseBertReader(max_seq_len=20) fetch = ["pooled_output"] endpoint_list = ["127.0.0.1:9494"] client = Client()