Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
book
提交
0fe8d890
B
book
项目概览
PaddlePaddle
/
book
通知
16
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
40
列表
看板
标记
里程碑
合并请求
37
Wiki
5
Wiki
分析
仓库
DevOps
项目成员
Pages
B
book
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
40
Issue
40
列表
看板
标记
里程碑
合并请求
37
合并请求
37
Pages
分析
分析
仓库分析
DevOps
Wiki
5
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
0fe8d890
编写于
3月 07, 2017
作者:
D
dangqingqing
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Adjust indent for jupyter
上级
9a008f71
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
128 addition
and
124 deletion
+128
-124
label_semantic_roles/README.md
label_semantic_roles/README.md
+128
-124
未找到文件。
label_semantic_roles/README.md
浏览文件 @
0fe8d890
...
@@ -187,171 +187,175 @@ conll05st-release/
...
@@ -187,171 +187,175 @@ conll05st-release/
获取词典,打印词典大小:
获取词典,打印词典大小:
```
python
```
python
import
math
import
numpy
as
np
import
paddle.v2
as
paddle
import
paddle.v2
as
paddle
import
paddle.v2.dataset.conll05
as
conll05
import
paddle.v2.dataset.conll05
as
conll05
paddle
.
init
(
use_gpu
=
False
,
trainer_count
=
1
)
word_dict
,
verb_dict
,
label_dict
=
conll05
.
get_dict
()
word_dict
,
verb_dict
,
label_dict
=
conll05
.
get_dict
()
word_dict_len
=
len
(
word_dict
)
word_dict_len
=
len
(
word_dict
)
label_dict_len
=
len
(
label_dict
)
label_dict_len
=
len
(
label_dict
)
pred_len
=
len
(
verb_dict
)
pred_len
=
len
(
verb_dict
)
print
len
(
word_dict_len
)
print
word_dict_len
print
l
en
(
label_dict_len
)
print
l
abel_dict_len
print
len
(
pred_len
)
print
pred_len
```
```
## 模型配置说明
## 模型配置说明
1.
定义输入数据维度及模型超参数。
1.
定义输入数据维度及模型超参数。
```python
```
python
mark_dict_len = 2 # 谓上下文区域标志的维度,是一个0-1 2值特征,因此维度为2
mark_dict_len
=
2
# 谓上下文区域标志的维度,是一个0-1 2值特征,因此维度为2
word_dim = 32 # 词向量维度
word_dim
=
32
# 词向量维度
mark_dim = 5 # 谓词上下文区域通过词表被映射为一个实向量,这个是相邻的维度
mark_dim
=
5
# 谓词上下文区域通过词表被映射为一个实向量,这个是相邻的维度
hidden_dim = 512 # LSTM隐层向量的维度 : 512 / 4
hidden_dim
=
512
# LSTM隐层向量的维度 : 512 / 4
depth = 8 # 栈式LSTM的深度
depth
=
8
# 栈式LSTM的深度
# 一条样本总共9个特征,下面定义了9个data层,每个层类型为integer_value_sequence,表示整数ID的序列类型.
def d_type(size):
return paddle.data_type.integer_value_sequence(size)
# 句子序列
word = paddle.layer.data(name='word_data', type=d_type(word_dict_len))
# 谓词
predicate = paddle.layer.data(name='verb_data', type=d_type(pred_len))
# 谓词上下文5个特征
ctx_n2 = paddle.layer.data(name='ctx_n2_data', type=d_type(word_dict_len))
ctx_n1 = paddle.layer.data(name='ctx_n1_data', type=d_type(word_dict_len))
ctx_0 = paddle.layer.data(name='ctx_0_data', type=d_type(word_dict_len))
ctx_p1 = paddle.layer.data(name='ctx_p1_data', type=d_type(word_dict_len))
ctx_p2 = paddle.layer.data(name='ctx_p2_data', type=d_type(word_dict_len))
# 谓词上下区域标志
mark = paddle.layer.data(name='mark_data', type=d_type(mark_dict_len))
# 标注序列
# 一条样本总共9个特征,下面定义了9个data层,每个层类型为integer_value_sequence,表示整数ID的序列类型.
target = paddle.layer.data(name='target', type=d_type(label_dict_len))
def
d_type
(
size
):
```
return
paddle
.
data_type
.
integer_value_sequence
(
size
)
# 句子序列
word
=
paddle
.
layer
.
data
(
name
=
'word_data'
,
type
=
d_type
(
word_dict_len
))
# 谓词
predicate
=
paddle
.
layer
.
data
(
name
=
'verb_data'
,
type
=
d_type
(
pred_len
))
# 谓词上下文5个特征
ctx_n2
=
paddle
.
layer
.
data
(
name
=
'ctx_n2_data'
,
type
=
d_type
(
word_dict_len
))
ctx_n1
=
paddle
.
layer
.
data
(
name
=
'ctx_n1_data'
,
type
=
d_type
(
word_dict_len
))
ctx_0
=
paddle
.
layer
.
data
(
name
=
'ctx_0_data'
,
type
=
d_type
(
word_dict_len
))
ctx_p1
=
paddle
.
layer
.
data
(
name
=
'ctx_p1_data'
,
type
=
d_type
(
word_dict_len
))
ctx_p2
=
paddle
.
layer
.
data
(
name
=
'ctx_p2_data'
,
type
=
d_type
(
word_dict_len
))
# 谓词上下区域标志
mark
=
paddle
.
layer
.
data
(
name
=
'mark_data'
,
type
=
d_type
(
mark_dict_len
))
# 标注序列
target
=
paddle
.
layer
.
data
(
name
=
'target'
,
type
=
d_type
(
label_dict_len
))
```
这里需要特别说明的是hidden_dim = 512指定了LSTM隐层向量的维度为128维,关于这一点请参考PaddlePaddle官方文档中
[
lstmemory
](
http://www.paddlepaddle.org/doc/ui/api/trainer_config_helpers/layers.html#lstmemory
)
的说明。
这里需要特别说明的是hidden_dim = 512指定了LSTM隐层向量的维度为128维,关于这一点请参考PaddlePaddle官方文档中
[
lstmemory
](
http://www.paddlepaddle.org/doc/ui/api/trainer_config_helpers/layers.html#lstmemory
)
的说明。
2.
将句子序列、谓词、谓词上下文、谓词上下文区域标记通过词表,转换为实向量表示的词向量序列。
2.
将句子序列、谓词、谓词上下文、谓词上下文区域标记通过词表,转换为实向量表示的词向量序列。
```python
```
python
# 在本教程中,我们加载了预训练的词向量,这里设置了:is_static=True
# 在本教程中,我们加载了预训练的词向量,这里设置了:is_static=True
# is_static 为 True 时保证了在训练 SRL 模型过程中,词表不再更新
# is_static 为 True 时保证了在训练 SRL 模型过程中,词表不再更新
emb_para = paddle.attr.Param(name='emb', initial_std=0., is_static=True)
emb_para
=
paddle
.
attr
.
Param
(
name
=
'emb'
,
initial_std
=
0.
,
is_static
=
True
)
# 设置超参数
# 设置超参数
default_std = 1 / math.sqrt(hidden_dim) / 3.0
default_std
=
1
/
math
.
sqrt
(
hidden_dim
)
/
3.0
std_default = paddle.attr.Param(initial_std=default_std)
std_default
=
paddle
.
attr
.
Param
(
initial_std
=
default_std
)
std_0 = paddle.attr.Param(initial_std=0.)
std_0
=
paddle
.
attr
.
Param
(
initial_std
=
0.
)
predicate_embedding = paddle.layer.embedding(
predicate_embedding
=
paddle
.
layer
.
embedding
(
size=word_dim,
size
=
word_dim
,
input=predicate,
input
=
predicate
,
param_attr=paddle.attr.Param(
param_attr
=
paddle
.
attr
.
Param
(
name='vemb', initial_std=default_std))
name
=
'vemb'
,
initial_std
=
default_std
))
mark_embedding = paddle.layer.embedding(
mark_embedding
=
paddle
.
layer
.
embedding
(
size=mark_dim, input=mark, param_attr=std_0)
size
=
mark_dim
,
input
=
mark
,
param_attr
=
std_0
)
word_input = [word, ctx_n2, ctx_n1, ctx_0, ctx_p1, ctx_p2]
word_input
=
[
word
,
ctx_n2
,
ctx_n1
,
ctx_0
,
ctx_p1
,
ctx_p2
]
emb_layers = [
emb_layers
=
[
paddle.layer.embedding(
paddle
.
layer
.
embedding
(
size=word_dim, input=x, param_attr=emb_para) for x in word_input
size
=
word_dim
,
input
=
x
,
param_attr
=
emb_para
)
for
x
in
word_input
]
]
emb_layers.append(predicate_embedding)
emb_layers
.
append
(
predicate_embedding
)
emb_layers.append(mark_embedding)
emb_layers
.
append
(
mark_embedding
)
```
```
3.
8个LSTM单元以“正向/反向”的顺序对所有输入序列进行学习。
3.
8个LSTM单元以“正向/反向”的顺序对所有输入序列进行学习。
```python
```
python
hidden_0 = paddle.layer.mixed(
hidden_0
=
paddle
.
layer
.
mixed
(
size
=
hidden_dim
,
bias_attr
=
std_default
,
input
=
[
paddle
.
layer
.
full_matrix_projection
(
input
=
emb
,
param_attr
=
std_default
)
for
emb
in
emb_layers
])
mix_hidden_lr
=
1e-3
lstm_para_attr
=
paddle
.
attr
.
Param
(
initial_std
=
0.0
,
learning_rate
=
1.0
)
hidden_para_attr
=
paddle
.
attr
.
Param
(
initial_std
=
default_std
,
learning_rate
=
mix_hidden_lr
)
lstm_0
=
paddle
.
layer
.
lstmemory
(
input
=
hidden_0
,
act
=
paddle
.
activation
.
Relu
(),
gate_act
=
paddle
.
activation
.
Sigmoid
(),
state_act
=
paddle
.
activation
.
Sigmoid
(),
bias_attr
=
std_0
,
param_attr
=
lstm_para_attr
)
#stack L-LSTM and R-LSTM with direct edges
input_tmp
=
[
hidden_0
,
lstm_0
]
for
i
in
range
(
1
,
depth
):
mix_hidden
=
paddle
.
layer
.
mixed
(
size
=
hidden_dim
,
size
=
hidden_dim
,
bias_attr
=
std_default
,
bias_attr
=
std_default
,
input
=
[
input
=
[
paddle
.
layer
.
full_matrix_projection
(
paddle
.
layer
.
full_matrix_projection
(
input=emb, param_attr=std_default) for emb in emb_layers
input
=
input_tmp
[
0
],
param_attr
=
hidden_para_attr
),
paddle
.
layer
.
full_matrix_projection
(
input
=
input_tmp
[
1
],
param_attr
=
lstm_para_attr
)
])
])
mix_hidden_lr = 1e-3
lstm
=
paddle
.
layer
.
lstmemory
(
lstm_para_attr = paddle.attr.Param(initial_std=0.0, learning_rate=1.0)
input
=
mix_hidden
,
hidden_para_attr = paddle.attr.Param(
initial_std=default_std, learning_rate=mix_hidden_lr)
lstm_0 = paddle.layer.lstmemory(
input=hidden_0,
act
=
paddle
.
activation
.
Relu
(),
act
=
paddle
.
activation
.
Relu
(),
gate_act
=
paddle
.
activation
.
Sigmoid
(),
gate_act
=
paddle
.
activation
.
Sigmoid
(),
state_act
=
paddle
.
activation
.
Sigmoid
(),
state_act
=
paddle
.
activation
.
Sigmoid
(),
reverse
=
((
i
%
2
)
==
1
),
bias_attr
=
std_0
,
bias_attr
=
std_0
,
param_attr
=
lstm_para_attr
)
param_attr
=
lstm_para_attr
)
#stack L-LSTM and R-LSTM with direct edges
input_tmp
=
[
mix_hidden
,
lstm
]
input_tmp = [hidden_0, lstm_0]
```
for i in range(1, depth):
mix_hidden = paddle.layer.mixed(
size=hidden_dim,
bias_attr=std_default,
input=[
paddle.layer.full_matrix_projection(
input=input_tmp[0], param_attr=hidden_para_attr),
paddle.layer.full_matrix_projection(
input=input_tmp[1], param_attr=lstm_para_attr)
])
lstm = paddle.layer.lstmemory(
input=mix_hidden,
act=paddle.activation.Relu(),
gate_act=paddle.activation.Sigmoid(),
state_act=paddle.activation.Sigmoid(),
reverse=((i % 2) == 1),
bias_attr=std_0,
param_attr=lstm_para_attr)
input_tmp = [mix_hidden, lstm]
```
4.
取最后一个栈式LSTM的输出和这个LSTM单元的输入到隐层映射,经过一个全连接层映射到标记字典的维度,得到最终的特征向量表示。
4.
取最后一个栈式LSTM的输出和这个LSTM单元的输入到隐层映射,经过一个全连接层映射到标记字典的维度,得到最终的特征向量表示。
```python
```
python
feature_out = paddle.layer.mixed(
feature_out
=
paddle
.
layer
.
mixed
(
size=label_dict_len,
size
=
label_dict_len
,
bias_attr=std_default,
bias_attr
=
std_default
,
input=[
input
=
[
paddle.layer.full_matrix_projection(
paddle
.
layer
.
full_matrix_projection
(
input=input_tmp[0], param_attr=hidden_para_attr),
input
=
input_tmp
[
0
],
param_attr
=
hidden_para_attr
),
paddle.layer.full_matrix_projection(
paddle
.
layer
.
full_matrix_projection
(
input=input_tmp[1], param_attr=lstm_para_attr)
input
=
input_tmp
[
1
],
param_attr
=
lstm_para_attr
)
], )
],
)
```
```
5.
网络的末端定义CRF层计算损失(cost),指定参数名字为
`crfw`
,该层需要输入正确的数据标签(target)。
5.
网络的末端定义CRF层计算损失(cost),指定参数名字为
`crfw`
,该层需要输入正确的数据标签(target)。
```python
```
python
crf_cost = paddle.layer.crf(
crf_cost
=
paddle
.
layer
.
crf
(
size=label_dict_len,
size
=
label_dict_len
,
input=feature_out,
input
=
feature_out
,
label=target,
label
=
target
,
param_attr=paddle.attr.Param(
param_attr
=
paddle
.
attr
.
Param
(
name='crfw',
name
=
'crfw'
,
initial_std=default_std,
initial_std
=
default_std
,
learning_rate=mix_hidden_lr))
learning_rate
=
mix_hidden_lr
))
```
```
6.
CRF译码层和CRF层参数名字相同,即共享权重。如果输入了正确的数据标签(target),会统计错误标签的个数,可以用来评估模型。如果没有输入正确的数据标签,该层可以推到出最优解,可以用来预测模型。
6.
CRF译码层和CRF层参数名字相同,即共享权重。如果输入了正确的数据标签(target),会统计错误标签的个数,可以用来评估模型。如果没有输入正确的数据标签,该层可以推到出最优解,可以用来预测模型。
```python
```
python
crf_dec = paddle.layer.crf_decoding(
crf_dec
=
paddle
.
layer
.
crf_decoding
(
name='crf_dec_l',
name
=
'crf_dec_l'
,
size=label_dict_len,
size
=
label_dict_len
,
input=feature_out,
input
=
feature_out
,
label=target,
label
=
target
,
param_attr=paddle.attr.Param(name='crfw'))
param_attr
=
paddle
.
attr
.
Param
(
name
=
'crfw'
))
```
```
## 训练模型
## 训练模型
...
@@ -376,8 +380,8 @@ print parameters.keys()
...
@@ -376,8 +380,8 @@ print parameters.keys()
# 这里加载PaddlePaddle上版保存的二进制模型
# 这里加载PaddlePaddle上版保存的二进制模型
def
load_parameter
(
file_name
,
h
,
w
):
def
load_parameter
(
file_name
,
h
,
w
):
with
open
(
file_name
,
'rb'
)
as
f
:
with
open
(
file_name
,
'rb'
)
as
f
:
f
.
read
(
16
)
f
.
read
(
16
)
return
np
.
fromfile
(
f
,
dtype
=
np
.
float32
).
reshape
(
h
,
w
)
return
np
.
fromfile
(
f
,
dtype
=
np
.
float32
).
reshape
(
h
,
w
)
parameters
.
set
(
'emb'
,
load_parameter
(
conll05
.
get_embedding
(),
44068
,
32
))
parameters
.
set
(
'emb'
,
load_parameter
(
conll05
.
get_embedding
(),
44068
,
32
))
```
```
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录