Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
ERNIE
提交
82562dad
E
ERNIE
项目概览
PaddlePaddle
/
ERNIE
大约 1 年 前同步成功
通知
109
Star
5997
Fork
1270
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
29
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
E
ERNIE
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
29
Issue
29
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
82562dad
编写于
3月 11, 2019
作者:
Y
Yibing Liu
提交者:
root
3月 11, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Use default num_iteration_per_drop_scope
上级
23bf59ef
变更
4
隐藏空白更改
内联
并排
Showing
4 changed file
with
1 addition
and
6 deletion
+1
-6
BERT/README.md
BERT/README.md
+1
-2
BERT/run_classifier.py
BERT/run_classifier.py
+0
-2
BERT/run_squad.py
BERT/run_squad.py
+0
-1
BERT/train.py
BERT/train.py
+0
-1
未找到文件。
BERT/README.md
浏览文件 @
82562dad
...
@@ -151,8 +151,7 @@ python -u run_classifier.py --task_name ${TASK_NAME} \
...
@@ -151,8 +151,7 @@ python -u run_classifier.py --task_name ${TASK_NAME} \
--max_seq_len
512
\
--max_seq_len
512
\
--bert_config_path
${
BERT_BASE_PATH
}
/bert_config.json
\
--bert_config_path
${
BERT_BASE_PATH
}
/bert_config.json
\
--learning_rate
1e-4
\
--learning_rate
1e-4
\
--skip_steps
10
\
--skip_steps
10
--num_iteration_per_drop_scope
1
```
```
这里的
`chinese_L-12_H-768_A-12`
即是转换后的中文预训练模型。需要注意的是,BERT on PaddlePaddle 支持按两种方式构建一个 batch 的数据,
`in_tokens`
参数影响
`batch_size`
参数的意义,如果
`in_tokens`
为
`true`
则按照 token 个数构建 batch, 如不设定则按照 example 个数来构建 batch. 训练过程中会输出训练误差、训练速度等信息,训练结束后会输出如下所示的在验证集上的测试结果:
这里的
`chinese_L-12_H-768_A-12`
即是转换后的中文预训练模型。需要注意的是,BERT on PaddlePaddle 支持按两种方式构建一个 batch 的数据,
`in_tokens`
参数影响
`batch_size`
参数的意义,如果
`in_tokens`
为
`true`
则按照 token 个数构建 batch, 如不设定则按照 example 个数来构建 batch. 训练过程中会输出训练误差、训练速度等信息,训练结束后会输出如下所示的在验证集上的测试结果:
...
...
BERT/run_classifier.py
浏览文件 @
82562dad
...
@@ -76,7 +76,6 @@ data_g.add_arg("random_seed", int, 0, "Random seed.")
...
@@ -76,7 +76,6 @@ data_g.add_arg("random_seed", int, 0, "Random seed.")
run_type_g
=
ArgumentGroup
(
parser
,
"run_type"
,
"running type options."
)
run_type_g
=
ArgumentGroup
(
parser
,
"run_type"
,
"running type options."
)
run_type_g
.
add_arg
(
"use_cuda"
,
bool
,
True
,
"If set, use GPU for training."
)
run_type_g
.
add_arg
(
"use_cuda"
,
bool
,
True
,
"If set, use GPU for training."
)
run_type_g
.
add_arg
(
"use_fast_executor"
,
bool
,
False
,
"If set, use fast parallel executor (in experiment)."
)
run_type_g
.
add_arg
(
"use_fast_executor"
,
bool
,
False
,
"If set, use fast parallel executor (in experiment)."
)
run_type_g
.
add_arg
(
"num_iteration_per_drop_scope"
,
int
,
10
,
"Iteration intervals to drop scope."
)
run_type_g
.
add_arg
(
"task_name"
,
str
,
None
,
run_type_g
.
add_arg
(
"task_name"
,
str
,
None
,
"The name of task to perform fine-tuning, should be in {'xnli', 'mnli', 'cola', 'mrpc'}."
)
"The name of task to perform fine-tuning, should be in {'xnli', 'mnli', 'cola', 'mrpc'}."
)
run_type_g
.
add_arg
(
"do_train"
,
bool
,
True
,
"Whether to perform training."
)
run_type_g
.
add_arg
(
"do_train"
,
bool
,
True
,
"Whether to perform training."
)
...
@@ -248,7 +247,6 @@ def main(args):
...
@@ -248,7 +247,6 @@ def main(args):
if
args
.
use_fast_executor
:
if
args
.
use_fast_executor
:
exec_strategy
.
use_experimental_executor
=
True
exec_strategy
.
use_experimental_executor
=
True
exec_strategy
.
num_threads
=
dev_count
exec_strategy
.
num_threads
=
dev_count
exec_strategy
.
num_iteration_per_drop_scope
=
args
.
num_iteration_per_drop_scope
train_exe
=
fluid
.
ParallelExecutor
(
train_exe
=
fluid
.
ParallelExecutor
(
use_cuda
=
args
.
use_cuda
,
use_cuda
=
args
.
use_cuda
,
...
...
BERT/run_squad.py
浏览文件 @
82562dad
...
@@ -344,7 +344,6 @@ def train(args):
...
@@ -344,7 +344,6 @@ def train(args):
if
args
.
use_fast_executor
:
if
args
.
use_fast_executor
:
exec_strategy
.
use_experimental_executor
=
True
exec_strategy
.
use_experimental_executor
=
True
exec_strategy
.
num_threads
=
dev_count
exec_strategy
.
num_threads
=
dev_count
exec_strategy
.
num_iteration_per_drop_scope
=
min
(
10
,
args
.
skip_steps
)
train_exe
=
fluid
.
ParallelExecutor
(
train_exe
=
fluid
.
ParallelExecutor
(
use_cuda
=
args
.
use_cuda
,
use_cuda
=
args
.
use_cuda
,
...
...
BERT/train.py
浏览文件 @
82562dad
...
@@ -313,7 +313,6 @@ def train(args):
...
@@ -313,7 +313,6 @@ def train(args):
if
args
.
use_fast_executor
:
if
args
.
use_fast_executor
:
exec_strategy
.
use_experimental_executor
=
True
exec_strategy
.
use_experimental_executor
=
True
exec_strategy
.
num_threads
=
dev_count
exec_strategy
.
num_threads
=
dev_count
exec_strategy
.
num_iteration_per_drop_scope
=
min
(
10
,
args
.
skip_steps
)
build_strategy
=
fluid
.
BuildStrategy
()
build_strategy
=
fluid
.
BuildStrategy
()
build_strategy
.
remove_unnecessary_lock
=
False
build_strategy
.
remove_unnecessary_lock
=
False
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录