Skip to content

  • 体验新版
    • 正在加载...
  • 登录
  • PaddlePaddle
  • models
  • Issue
  • #3987

M
models
  • 项目概览

PaddlePaddle / models
大约 2 年 前同步成功

通知 232
Star 6828
Fork 2962
  • 代码
    • 文件
    • 提交
    • 分支
    • Tags
    • 贡献者
    • 分支图
    • Diff
  • Issue 602
    • 列表
    • 看板
    • 标记
    • 里程碑
  • 合并请求 255
  • Wiki 0
    • Wiki
  • 分析
    • 仓库
    • DevOps
  • 项目成员
  • Pages
M
models
  • 项目概览
    • 项目概览
    • 详情
    • 发布
  • 仓库
    • 仓库
    • 文件
    • 提交
    • 分支
    • 标签
    • 贡献者
    • 分支图
    • 比较
  • Issue 602
    • Issue 602
    • 列表
    • 看板
    • 标记
    • 里程碑
  • 合并请求 255
    • 合并请求 255
  • Pages
  • 分析
    • 分析
    • 仓库分析
    • DevOps
  • Wiki 0
    • Wiki
  • 成员
    • 成员
  • 收起侧边栏
  • 动态
  • 分支图
  • 创建新Issue
  • 提交
  • Issue看板
“ebb92b7830e269a79de9602176b37d326c78fdf7”上不存在“develop/doc/dev/write_docs_en.html”
已关闭
开放中
Opened 11月 26, 2019 by saxon_zh@saxon_zhGuest

paddleDetection yaml中的batch_size在同步和异步读取时的含义

Created by: ellinyang

代码:paddleDeteciton 环境:v100, paddle1.5.1; GPU=2;batch_size=1

背景:将paddleDeteciton yaml文件中的batch_size设为1,两个gpu训练,原始代码训练正常;但由于业务需求,需将异步读取改为同步读取,即feed模式,训练报错; image

问题:

  1. yml 里的 batch_size ,对于异步读取的pyreader来说是每个GPU的batch_size; 对于同步读取的feed来说是所有GPUs的总batch_size;
    请问是什么原因导致这样的差别?是否有策略让两种读取方式最后输出的batch_size保持一致? 2.每个迭代 Images分配给GPUs的策略 平均分?还是优先第一个gpu?
指派人
分配到
无
里程碑
无
分配里程碑
工时统计
无
截止日期
无
标识: paddlepaddle/models#3987
渝ICP备2023009037号

京公网安备11010502055752号

网络110报警服务 Powered by GitLab CE v13.7
开源知识
Git 入门 Pro Git 电子书 在线学 Git
Markdown 基础入门 IT 技术知识开源图谱
帮助
使用手册 反馈建议 博客
《GitCode 隐私声明》 《GitCode 服务条款》 关于GitCode
Powered by GitLab CE v13.7