Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
Serving
提交
2c4214b8
S
Serving
项目概览
PaddlePaddle
/
Serving
1 年多 前同步成功
通知
186
Star
833
Fork
253
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
105
列表
看板
标记
里程碑
合并请求
10
Wiki
2
Wiki
分析
仓库
DevOps
项目成员
Pages
S
Serving
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
105
Issue
105
列表
看板
标记
里程碑
合并请求
10
合并请求
10
Pages
分析
分析
仓库分析
DevOps
Wiki
2
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
2c4214b8
编写于
2月 19, 2021
作者:
T
Thomas Young
提交者:
GitHub
2月 19, 2021
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fff11
fff11
上级
c8329c22
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
66 addition
and
42 deletion
+66
-42
doc/BERT_10_MINS_CN.md
doc/BERT_10_MINS_CN.md
+66
-42
未找到文件。
doc/BERT_10_MINS_CN.md
浏览文件 @
2c4214b8
...
...
@@ -2,30 +2,52 @@
(简体中文|
[
English
](
./BERT_10_MINS.md
)
)
Bert-As-Service的目标是给定一个句子,服务可以将句子表示成一个语义向量返回给用户。
[
Bert模型
](
https://arxiv.org/abs/1810.04805
)
是目前NLP领域的热门模型,在多种公开的NLP任务上都取得了很好的效果,使用Bert模型计算出的语义向量来做其他NLP模型的输入对提升模型的表现也有很大的帮助。Bert-As-Service可以让用户很方便地获取文本的语义向量表示并应用到自己的任务中。为了实现这个目标,我们通过
四
个步骤说明使用Paddle Serving在十分钟内就可以搭建一个这样的服务。示例中所有的代码和文件均可以在Paddle Serving的
[
示例
](
https://github.com/PaddlePaddle/Serving/tree/develop/python/examples/bert
)
中找到。
Bert-As-Service的目标是给定一个句子,服务可以将句子表示成一个语义向量返回给用户。
[
Bert模型
](
https://arxiv.org/abs/1810.04805
)
是目前NLP领域的热门模型,在多种公开的NLP任务上都取得了很好的效果,使用Bert模型计算出的语义向量来做其他NLP模型的输入对提升模型的表现也有很大的帮助。Bert-As-Service可以让用户很方便地获取文本的语义向量表示并应用到自己的任务中。为了实现这个目标,我们通过
以下几
个步骤说明使用Paddle Serving在十分钟内就可以搭建一个这样的服务。示例中所有的代码和文件均可以在Paddle Serving的
[
示例
](
https://github.com/PaddlePaddle/Serving/tree/develop/python/examples/bert
)
中找到。
#### Step1:保存可服务模型
### Step1:获取模型
方法1:
示例中采用
[
Paddlehub
](
https://github.com/PaddlePaddle/PaddleHub
)
中的
[
BERT中文模型
](
https://www.paddlepaddle.org.cn/hubdetail?name=bert_chinese_L-12_H-768_A-12&en_category=SemanticModel
)
。
请先安装paddlehub
```
pip3 install paddlehub
```
执行
```
python3 prepare_model.py 128
```
参数128表示BERT模型中的max_seq_len,即预处理后的样本长度。
生成server端配置文件与模型文件,存放在bert_seq128_model文件夹。
生成client端配置文件,存放在bert_seq128_client文件夹。
方法2:
您也可以从bos上直接下载上述模型(max_seq_len=128),解压后server端配置文件与模型文件存放在bert_chinese_L-12_H-768_A-12_model文件夹,client端配置文件存放在bert_chinese_L-12_H-768_A-12_client文件夹:
```
shell
wget https://paddle-serving.bj.bcebos.com/paddle_hub_models/text/SemanticModel/bert_chinese_L-12_H-768_A-12.tar.gz
tar
-xzf
bert_chinese_L-12_H-768_A-12.tar.gz
mv
bert_chinese_L-12_H-768_A-12_model bert_seq128_model
mv
bert_chinese_L-12_H-768_A-12_client bert_seq128_client
```
Paddle Serving支持基于Paddle进行训练的各种模型,并通过指定模型的输入和输出变量来保存可服务模型。为了方便,我们可以从paddlehub加载一个已经训练好的bert中文模型,并利用两行代码保存一个可部署的服务,服务端和客户端的配置分别放在
`bert_seq20_model`
和
`bert_seq20_client`
文件夹。
```
python
import
paddlehub
as
hub
model_name
=
"bert_chinese_L-12_H-768_A-12"
module
=
hub
.
Module
(
model_name
)
inputs
,
outputs
,
program
=
module
.
context
(
trainable
=
True
,
max_seq_len
=
20
)
feed_keys
=
[
"input_ids"
,
"position_ids"
,
"segment_ids"
,
"input_mask"
]
fetch_keys
=
[
"pooled_output"
,
"sequence_output"
]
feed_dict
=
dict
(
zip
(
feed_keys
,
[
inputs
[
x
]
for
x
in
feed_keys
]))
fetch_dict
=
dict
(
zip
(
fetch_keys
,
[
outputs
[
x
]
for
x
in
fetch_keys
]))
### Step2:获取词典和样例数据
import
paddle_serving_client.io
as
serving_io
serving_io
.
save_model
(
"bert_seq20_model"
,
"bert_seq20_client"
,
feed_dict
,
fetch_dict
,
program
)
```
sh get_data.sh
```
脚本将下载中文词典vocab.txt和中文样例数据data-c.txt
#### Step2:启动服务
#### Step3:启动服务
启动cpu预测服务,执行
```
python -m paddle_serving_server.serve --model bert_seq128_model/ --port 9292 #启动cpu预测服务
```
或者,启动gpu预测服务,执行
```
python -m paddle_serving_server_gpu.serve --model bert_seq128_model/ --port 9292 --gpu_ids 0 #在gpu 0上启动gpu预测服务
```
shell
python
-m
paddle_serving_server_gpu.serve
--model
bert_seq20_model
--port
9292
--gpu_ids
0
```
| 参数 | 含义 |
...
...
@@ -35,7 +57,8 @@ python -m paddle_serving_server_gpu.serve --model bert_seq20_model --port 9292 -
| port | server端端口号 |
| gpu_ids | GPU索引号 |
#### Step3:客户端数据预处理逻辑
#### Step4:客户端数据预处理逻辑
Paddle Serving内建了很多经典典型对应的数据预处理逻辑,对于中文Bert语义表示的计算,我们采用paddle_serving_app下的ChineseBertReader类进行数据预处理,开发者可以很容易获得一个原始的中文句子对应的多个模型输入字段。
...
...
@@ -45,39 +68,40 @@ Paddle Serving内建了很多经典典型对应的数据预处理逻辑,对于
pip
install
paddle_serving_app
```
#### Step
4
:客户端访问
#### Step
5
:客户端访问
客户端脚本 bert_client.py内容如下
方法1:直接客户端执行预测
执行
```
head data-c.txt | python bert_client.py --model bert_seq128_client/serving_client_conf.prototxt
```
python
import
sys
from
paddle_serving_client
import
Client
from
paddle_serving_client.utils
import
benchmark_args
from
paddle_serving_app.reader
import
ChineseBertReader
import
numpy
as
np
args
=
benchmark_args
()
```
启动client读取data-c.txt中的数据进行预测,预测结果为文本的向量表示(由于数据较多,脚本中没有将输出进行打印),server端的地址在脚本中修改。
reader
=
ChineseBertReader
({
"max_seq_len"
:
128
})
fetch
=
[
"pooled_output"
]
endpoint_list
=
[
'127.0.0.1:9292'
]
client
=
Client
()
client
.
load_client_config
(
args
.
model
)
client
.
connect
(
endpoint_list
)
从data.txt文件中读取样例,并将结果打印到标准输出。
for
line
in
sys
.
stdin
:
feed_dict
=
reader
.
process
(
line
)
for
key
in
feed_dict
.
keys
():
feed_dict
[
key
]
=
np
.
array
(
feed_dict
[
key
]).
reshape
((
128
,
1
))
result
=
client
.
predict
(
feed
=
feed_dict
,
fetch
=
fetch
,
batch
=
False
)
方法2:通过HTTP方式执行预测
该方式分为两步
1、启动一个HTTP预测服务端。
启动cpu HTTP预测服务,执行
```
python bert_web_service.py bert_seq128_model/ 9292 #启动CPU预测服务
执行
```
```
shell
cat
data.txt | python bert_client.py
或者,启动gpu HTTP预测服务,执行
```
export CUDA_VISIBLE_DEVICES=0,1
```
通过环境变量指定gpu预测服务使用的gpu,示例中指定索引为0和1的两块gpu
```
python bert_web_service_gpu.py bert_seq128_model/ 9292 #启动gpu预测服务
```
从data.txt文件中读取样例,并将结果打印到标准输出。
2、通过HTTP请求执行预测。
```
curl -H "Content-Type:application/json" -X POST -d '{"feed":[{"words": "hello"}], "fetch":["pooled_output"]}' http://127.0.0.1:9292/bert/prediction
```
### 性能测试
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录