Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
Crayon鑫
Paddle
提交
c8429d36
P
Paddle
项目概览
Crayon鑫
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
1
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
1
Issue
1
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
c8429d36
编写于
11月 25, 2021
作者:
S
Steffy-zxf
提交者:
GitHub
11月 25, 2021
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
[cherry-pick 2.2]fix data parallel when VOCAB var in program (#37546)
* fix data parallel when VOCAB var in program * fix ci coverage
上级
824c4ef9
变更
3
隐藏空白更改
内联
并排
Showing
3 changed file
with
32 addition
and
0 deletion
+32
-0
python/paddle/fluid/dygraph/parallel.py
python/paddle/fluid/dygraph/parallel.py
+3
-0
python/paddle/fluid/tests/unittests/CMakeLists.txt
python/paddle/fluid/tests/unittests/CMakeLists.txt
+1
-0
python/paddle/fluid/tests/unittests/test_faster_tokenizer_op.py
.../paddle/fluid/tests/unittests/test_faster_tokenizer_op.py
+28
-0
未找到文件。
python/paddle/fluid/dygraph/parallel.py
浏览文件 @
c8429d36
...
...
@@ -365,6 +365,9 @@ def sync_params_buffers(model,
if
getattr
(
param
,
"no_sync"
,
False
):
continue
if
param
.
type
==
core
.
VarDesc
.
VarType
.
VOCAB
:
continue
model_vars
.
append
(
param
.
detach
())
if
len
(
model_vars
)
==
0
:
return
...
...
python/paddle/fluid/tests/unittests/CMakeLists.txt
浏览文件 @
c8429d36
...
...
@@ -554,6 +554,7 @@ py_test_modules(test_imperative_static_runner_mnist MODULES test_imperative_stat
py_test_modules
(
test_imperative_static_runner_while MODULES test_imperative_static_runner_while ENVS
FLAGS_cudnn_deterministic=1
)
set_tests_properties
(
test_conv2d_op PROPERTIES LABELS
"RUN_TYPE=EXCLUSIVE"
)
set_tests_properties
(
test_faster_tokenizer_op PROPERTIES LABELS
"RUN_TYPE=EXCLUSIVE"
)
set_tests_properties
(
test_conv2d_op_depthwise_conv PROPERTIES LABELS
"RUN_TYPE=EXCLUSIVE"
)
set_tests_properties
(
test_conv2d_api PROPERTIES LABELS
"RUN_TYPE=EXCLUSIVE"
)
set_tests_properties
(
test_conv_nn_grad PROPERTIES LABELS
"RUN_TYPE=EXCLUSIVE"
)
...
...
python/paddle/fluid/tests/unittests/test_faster_tokenizer_op.py
浏览文件 @
c8429d36
...
...
@@ -388,6 +388,34 @@ class TestBertTokenizerOp(unittest.TestCase):
exe
.
run
(
paddle
.
static
.
default_main_program
(),
feed
=
{
'x'
:
self
.
text
})
paddle
.
disable_static
()
def
test_data_parallel
(
self
):
self
.
max_seq_len
=
128
self
.
pad_to_max_seq_len
=
True
self
.
is_split_into_words
=
False
model
=
paddle
.
DataParallel
(
self
.
faster_tokenizer
)
input_ids
,
token_type_ids
=
model
(
text
=
self
.
text_tensor
,
do_lower_case
=
self
.
bert_tokenizer
.
do_lower_case
,
max_seq_len
=
self
.
max_seq_len
,
pad_to_max_seq_len
=
self
.
pad_to_max_seq_len
,
is_split_into_words
=
self
.
is_split_into_words
)
input_ids
=
input_ids
.
numpy
()
token_type_ids
=
token_type_ids
.
numpy
()
encoded_inputs
=
self
.
bert_tokenizer
(
self
.
text
,
max_seq_len
=
self
.
max_seq_len
,
pad_to_max_seq_len
=
self
.
pad_to_max_seq_len
,
is_split_into_words
=
self
.
is_split_into_words
)
py_input_ids
=
np
.
array
(
encoded_inputs
[
0
][
"input_ids"
]).
reshape
([
1
,
-
1
])
py_token_type_ids
=
np
.
array
(
encoded_inputs
[
0
][
"token_type_ids"
]).
reshape
([
1
,
-
1
])
self
.
assertTrue
(
np
.
allclose
(
input_ids
,
py_input_ids
,
rtol
=
0
,
atol
=
0.01
))
self
.
assertTrue
(
np
.
allclose
(
token_type_ids
,
py_token_type_ids
,
rtol
=
0
,
atol
=
0.01
))
if
__name__
==
'__main__'
:
unittest
.
main
()
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录