Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
Greenplum
DeepSpeed
提交
d39c311f
D
DeepSpeed
项目概览
Greenplum
/
DeepSpeed
上一次同步 大约 1 年
通知
10
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
DeepSpeed
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
未验证
提交
d39c311f
编写于
5月 25, 2023
作者:
O
Olatunji Ruwase
提交者:
GitHub
5月 25, 2023
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
DS init should not broadcast or move zero.Init models (#3611)
上级
736bf185
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
8 addition
and
6 deletion
+8
-6
deepspeed/runtime/engine.py
deepspeed/runtime/engine.py
+8
-6
未找到文件。
deepspeed/runtime/engine.py
浏览文件 @
d39c311f
...
...
@@ -1027,20 +1027,22 @@ class DeepSpeedEngine(Module):
def
_configure_distributed_model
(
self
,
model
):
self
.
_set_client_model
(
model
)
is_zero3_model
=
self
.
zero_optimization_partition_weights
()
and
any
(
[
hasattr
(
param
,
"ds_id"
)
for
param
in
self
.
module
.
parameters
()])
if
self
.
fp16_enabled
():
if
self
.
zero_optimization_partition_weights
()
and
any
(
[
hasattr
(
param
,
"ds_id"
)
for
param
in
self
.
module
.
parameters
()]):
if
is_zero3_model
:
self
.
__check_params
(
self
.
module
,
torch
.
half
)
self
.
module
.
half
()
elif
self
.
bfloat16_enabled
():
if
self
.
zero_optimization_partition_weights
()
and
any
(
hasattr
(
param
,
'ds_id'
)
for
param
in
self
.
module
.
parameters
()):
if
is_zero3_model
:
self
.
__check_params
(
self
.
module
,
torch
.
bfloat16
)
self
.
module
.
bfloat16
()
else
:
self
.
__check_params
(
self
.
module
,
torch
.
float
)
if
not
self
.
dont_change_device
:
# zero.Init() handles device placement of model
if
not
(
self
.
dont_change_device
or
is_zero3_model
):
self
.
module
.
to
(
self
.
device
)
# MoE related initialization
...
...
@@ -1076,7 +1078,7 @@ class DeepSpeedEngine(Module):
self
.
expert_parallel_group
=
groups
.
_get_expert_parallel_group_dict
()
self
.
expert_data_parallel_group
=
groups
.
_get_expert_data_parallel_group_dict
()
if
not
self
.
amp_enabled
(
):
if
not
(
self
.
amp_enabled
()
or
is_zero3_model
):
self
.
_broadcast_model
()
# check if parameters are duplicated in optimizer param_groups
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录