Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
s920243400
PaddleDetection
提交
25d7ad0d
P
PaddleDetection
项目概览
s920243400
/
PaddleDetection
与 Fork 源项目一致
Fork自
PaddlePaddle / PaddleDetection
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleDetection
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
25d7ad0d
编写于
11月 16, 2016
作者:
Z
zhangjcqq
提交者:
GitHub
11月 16, 2016
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
to loop
上级
cfa304ba
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
5 addition
and
10 deletion
+5
-10
demo/semantic_role_labeling/db_lstm.py
demo/semantic_role_labeling/db_lstm.py
+5
-10
未找到文件。
demo/semantic_role_labeling/db_lstm.py
浏览文件 @
25d7ad0d
...
...
@@ -120,24 +120,19 @@ emb_para = ParameterAttribute(name='emb', initial_std=0., learning_rate=0.)
std_0
=
ParameterAttribute
(
initial_std
=
0.
)
std_default
=
ParameterAttribute
(
initial_std
=
default_std
)
word_embedding
=
embedding_layer
(
size
=
word_dim
,
input
=
word
,
param_attr
=
emb_para
)
predicate_embedding
=
embedding_layer
(
size
=
word_dim
,
input
=
predicate
,
param_attr
=
ParameterAttribute
(
name
=
'vemb'
,
initial_std
=
default_std
))
ctx_n2_embedding
=
embedding_layer
(
size
=
word_dim
,
input
=
ctx_n2
,
param_attr
=
emb_para
)
ctx_n1_embedding
=
embedding_layer
(
size
=
word_dim
,
input
=
ctx_n1
,
param_attr
=
emb_para
)
ctx_0_embedding
=
embedding_layer
(
size
=
word_dim
,
input
=
ctx_0
,
param_attr
=
emb_para
)
ctx_p1_embedding
=
embedding_layer
(
size
=
word_dim
,
input
=
ctx_p1
,
param_attr
=
emb_para
)
ctx_p2_embedding
=
embedding_layer
(
size
=
word_dim
,
input
=
ctx_p2
,
param_attr
=
emb_para
)
mark_embedding
=
embedding_layer
(
name
=
'word_ctx-in_embedding'
,
size
=
mark_dim
,
input
=
mark
,
param_attr
=
std_0
)
all_emb
=
[
word_embedding
,
predicate_embedding
,
ctx_n2_embedding
,
ctx_n1_embedding
,
ctx_0_embedding
,
ctx_p1_embedding
,
ctx_p2_embedding
,
mark_embedding
]
word_input
=
[
word
,
ctx_n2
,
ctx_n1
,
ctx_0
,
ctx_p1
,
ctx_p2
]
emb_layers
=
[
embedding_layer
(
size
=
word_dim
,
input
=
x
,
param_attr
=
emb_para
)
for
x
in
word_input
]
emb_layers
.
append
(
predicate_embedding
)
emb_layers
.
append
(
mark_embedding
)
hidden_0
=
mixed_layer
(
name
=
'hidden0'
,
size
=
hidden_dim
,
bias_attr
=
std_default
,
input
=
[
full_matrix_projection
(
input
=
emb
,
param_attr
=
std_default
)
for
emb
in
all_emb
])
input
=
[
full_matrix_projection
(
input
=
emb
,
param_attr
=
std_default
)
for
emb
in
emb_layers
])
mix_hidden_lr
=
1e-3
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录