Skip to content

  • 体验新版
    • 正在加载...
  • 登录
  • PaddlePaddle
  • models
  • Issue
  • #3899

M
models
  • 项目概览

PaddlePaddle / models
大约 2 年 前同步成功

通知 232
Star 6828
Fork 2962
  • 代码
    • 文件
    • 提交
    • 分支
    • Tags
    • 贡献者
    • 分支图
    • Diff
  • Issue 602
    • 列表
    • 看板
    • 标记
    • 里程碑
  • 合并请求 255
  • Wiki 0
    • Wiki
  • 分析
    • 仓库
    • DevOps
  • 项目成员
  • Pages
M
models
  • 项目概览
    • 项目概览
    • 详情
    • 发布
  • 仓库
    • 仓库
    • 文件
    • 提交
    • 分支
    • 标签
    • 贡献者
    • 分支图
    • 比较
  • Issue 602
    • Issue 602
    • 列表
    • 看板
    • 标记
    • 里程碑
  • 合并请求 255
    • 合并请求 255
  • Pages
  • 分析
    • 分析
    • 仓库分析
    • DevOps
  • Wiki 0
    • Wiki
  • 成员
    • 成员
  • 收起侧边栏
  • 动态
  • 分支图
  • 创建新Issue
  • 提交
  • Issue看板
已关闭
开放中
Opened 11月 07, 2019 by saxon_zh@saxon_zhGuest

Imagenet图像分类工程,内存一直不停增长直到占满

Created by: Yogurt2019

你好,我使用的是github上最新1.6版本的models工程PaddleCV中的image_classification,PaddlePaddle版本1.6,工程基本没有改动,使用我自己的数据集,在多进程训练时,内存会一直不停增长,直到内存全部占满。 我的内存大小是128G,使用的显卡是Tesla V100 另外我尝试调整过reader_thread、reader_buf_size和batch size,已经调整到足够小了,再小的话会影响性能,reader_thread为6,reader_buf_size为512,PyReader的capacity调整为4,而且我开启了FLAGS_eager_delete_tensor_gb=0,打开inplace策略等,内存还是会一直不停增长,直到128G内存全部占满。 请问这种情况如何解决?

我刚刚试了一下,使用imagenet数据集来训练,内存会一直不断的上涨,我的训练参数是: python -m paddle.distributed.launch train.py --model=ResNet34 --batch_size=300 --reader_thread=12 --reader_buf_size=2048 其他全部为默认值,内存依然不断上涨,内存已经占超过70G了 image

指派人
分配到
无
里程碑
无
分配里程碑
工时统计
无
截止日期
无
标识: paddlepaddle/models#3899
渝ICP备2023009037号

京公网安备11010502055752号

网络110报警服务 Powered by GitLab CE v13.7
开源知识
Git 入门 Pro Git 电子书 在线学 Git
Markdown 基础入门 IT 技术知识开源图谱
帮助
使用手册 反馈建议 博客
《GitCode 隐私声明》 《GitCode 服务条款》 关于GitCode
Powered by GitLab CE v13.7