Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
Greenplum
DeepSpeed
提交
6b49b60e
D
DeepSpeed
项目概览
Greenplum
/
DeepSpeed
上一次同步 大约 1 年
通知
10
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
DeepSpeed
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
未验证
提交
6b49b60e
编写于
5月 13, 2021
作者:
O
Olatunji Ruwase
提交者:
GitHub
5月 13, 2021
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Get correct fp16 reuse buffer size (#1071)
上级
29b444b6
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
13 addition
and
7 deletion
+13
-7
deepspeed/runtime/zero/stage3.py
deepspeed/runtime/zero/stage3.py
+13
-7
未找到文件。
deepspeed/runtime/zero/stage3.py
浏览文件 @
6b49b60e
...
...
@@ -1075,6 +1075,7 @@ class FP16_DeepSpeedZeroOptimizer_Stage3(object):
def
_create_fp16_partitions_with_defragmentation
(
self
):
dist
.
barrier
()
partition_id
=
dist
.
get_rank
(
group
=
self
.
dp_process_group
)
create_fp16_flat_reuse_buffer
=
False
#create a flat CPU memory allocation for each param group
if
self
.
offload_param
:
...
...
@@ -1168,16 +1169,21 @@ class FP16_DeepSpeedZeroOptimizer_Stage3(object):
see_memory_usage
(
f
"After Flattening param group
{
i
}
"
,
force
=
False
)
#create a pinned memory to be used for swapping out params to NVME after optimizer step
if
self
.
fp16_partitioned_groups_flat
[
-
1
]
is
None
and
self
.
param_group_fp16_flat_reuse_buffer
is
None
:
self
.
param_group_fp16_flat_reuse_buffer
=
torch
.
empty
(
max
(
self
.
fp16_partitioned_groups_flat_numel
),
dtype
=
self
.
dtype
,
device
=
'cpu'
,
pin_memory
=
True
)
if
self
.
fp16_partitioned_groups_flat
[
-
1
]
is
None
:
create_fp16_flat_reuse_buffer
=
True
see_memory_usage
(
f
"After Flattening param subgroup
{
i
}
"
,
force
=
False
)
if
create_fp16_flat_reuse_buffer
:
assert
self
.
param_group_fp16_flat_reuse_buffer
is
None
,
\
f
'Unexpected that pinned memory for swapping params out to NVMe is already created'
self
.
param_group_fp16_flat_reuse_buffer
=
torch
.
empty
(
max
(
self
.
fp16_partitioned_groups_flat_numel
),
dtype
=
self
.
dtype
,
device
=
'cpu'
,
pin_memory
=
True
)
def
_swap_in_sub_group_to_flat_buffer
(
self
,
flat_buffer
,
sub_group_id
):
offset
=
0
elements_in_sub_group
=
sum
(
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录