Skip to content

  • 体验新版
    • 正在加载...
  • 登录
  • PaddlePaddle
  • models
  • Issue
  • #3979

M
models
  • 项目概览

PaddlePaddle / models
大约 2 年 前同步成功

通知 232
Star 6828
Fork 2962
  • 代码
    • 文件
    • 提交
    • 分支
    • Tags
    • 贡献者
    • 分支图
    • Diff
  • Issue 602
    • 列表
    • 看板
    • 标记
    • 里程碑
  • 合并请求 255
  • Wiki 0
    • Wiki
  • 分析
    • 仓库
    • DevOps
  • 项目成员
  • Pages
M
models
  • 项目概览
    • 项目概览
    • 详情
    • 发布
  • 仓库
    • 仓库
    • 文件
    • 提交
    • 分支
    • 标签
    • 贡献者
    • 分支图
    • 比较
  • Issue 602
    • Issue 602
    • 列表
    • 看板
    • 标记
    • 里程碑
  • 合并请求 255
    • 合并请求 255
  • Pages
  • 分析
    • 分析
    • 仓库分析
    • DevOps
  • Wiki 0
    • Wiki
  • 成员
    • 成员
  • 收起侧边栏
  • 动态
  • 分支图
  • 创建新Issue
  • 提交
  • Issue看板
已关闭
开放中
Opened 11月 26, 2019 by saxon_zh@saxon_zhGuest

batch_norm效果异常求解答

Created by: Archimondecy

实现了一个ranknet,网络是fc-bn-fc-bn-fc-bn-fc-bn-fc-bn-fc,fc神经元的数量除了最后一层是1,其他都是32. fc没有激活,bn用的relu。 输入是 样本label永远是1,左边是pos,右边是neg,左边永远大于右边;设计是希望pos和neg走同一个上面的网络,计算出最后一层结果,然后进入margin_rank_loss,所以永远是pos-neg,然后做sigmoid和二元交叉熵logloss,最后取均值作为loss。 逻辑是,希望网络能够根据特征计算相关性得分,然后pos-neg差值越大越好。

现在问题是,训练时loss迅速降为0.001,预测时效果很差。加载训练好的模型再进行训练,loss 0.001,但是一旦bn使用全局状态(use_global_stats设为True,不更新bn参数,模拟预测),立刻loss暴涨。 辛苦帮忙看下是bn层有异常么? 其中一层FC-bn BaiduHi_2019-11-26_10-41-4 最后一层fc 2 loss的构成 3

指派人
分配到
无
里程碑
无
分配里程碑
工时统计
无
截止日期
无
标识: paddlepaddle/models#3979
渝ICP备2023009037号

京公网安备11010502055752号

网络110报警服务 Powered by GitLab CE v13.7
开源知识
Git 入门 Pro Git 电子书 在线学 Git
Markdown 基础入门 IT 技术知识开源图谱
帮助
使用手册 反馈建议 博客
《GitCode 隐私声明》 《GitCode 服务条款》 关于GitCode
Powered by GitLab CE v13.7