Skip to content

  • 体验新版
    • 正在加载...
  • 登录
  • PaddlePaddle
  • PaddleDetection
  • Issue
  • #889

P
PaddleDetection
  • 项目概览

PaddlePaddle / PaddleDetection
接近 2 年 前同步成功

通知 706
Star 11112
Fork 2696
  • 代码
    • 文件
    • 提交
    • 分支
    • Tags
    • 贡献者
    • 分支图
    • Diff
  • Issue 184
    • 列表
    • 看板
    • 标记
    • 里程碑
  • 合并请求 40
  • Wiki 0
    • Wiki
  • 分析
    • 仓库
    • DevOps
  • 项目成员
  • Pages
P
PaddleDetection
  • 项目概览
    • 项目概览
    • 详情
    • 发布
  • 仓库
    • 仓库
    • 文件
    • 提交
    • 分支
    • 标签
    • 贡献者
    • 分支图
    • 比较
  • Issue 184
    • Issue 184
    • 列表
    • 看板
    • 标记
    • 里程碑
  • 合并请求 40
    • 合并请求 40
  • Pages
  • 分析
    • 分析
    • 仓库分析
    • DevOps
  • Wiki 0
    • Wiki
  • 成员
    • 成员
  • 收起侧边栏
  • 动态
  • 分支图
  • 创建新Issue
  • 提交
  • Issue看板
已关闭
开放中
Opened 6月 08, 2020 by saxon_zh@saxon_zhGuest

paddledetection/slim/quantization

Created by: justinmeibi

Q1:slim/quantization 下有train.py,eval.py,export_model.py,infer.py,yolo_v3_darknet 量化训练时,激活函数量化8bit ,采用moving_average_abs_max,权重量化7bit,采用channel_wise_abs_max。模型训练阶段评估指标为82%map。这时候的评估(82%map)是是否插入了fake_quan_max_abs?feature map 的量化参数和反量化番薯是固定在模型中了还是根据feature_map动态获取? Q2:如果将conv的input 和weight 采用量化后的int8做卷积,经过bn ,lrelu ,再乘以scale,将数据还原到8bit ,继续重复卷积,最终的输出是不是和quant_aware的模型精度保持一致? Q3:train.py完成后会生成模型的ckpt。保存的参数中包含每层权重,bn。还有image.scale 不同的检查点这个数据大约都是3.5-4.5之间这个数据是怎么来的?add_tmp.scale,concat_tmp.scale,lrelu_tmp.scale。这些参数是什么? Q4:量化后的模型跑slim/quantization/eval.py map为0,slim/quantization/infer.py 没有目标。跑tools下的eval.py map为69%,infer.py 有目标,但是应该是map69%的那个那个数据流方式做的推断。怎么样才能跑出训练阶段的 map81%? Q5:如何获取指定中间某节点的输出结果?网络结果到detection最终的box 和score 这一过程是否和tf,torch的计算步骤一致? Q6:训练阶段数据做了很多数据增强,但是做推断的时候直接im/255.,这样会不会掉精度? Q7:量化的模型可以转到tf 的pb 模型解析吗,是否有对应的工具 或者 转换规则?

指派人
分配到
无
里程碑
无
分配里程碑
工时统计
无
截止日期
无
标识: paddlepaddle/PaddleDetection#889
渝ICP备2023009037号

京公网安备11010502055752号

网络110报警服务 Powered by GitLab CE v13.7
开源知识
Git 入门 Pro Git 电子书 在线学 Git
Markdown 基础入门 IT 技术知识开源图谱
帮助
使用手册 反馈建议 博客
《GitCode 隐私声明》 《GitCode 服务条款》 关于GitCode
Powered by GitLab CE v13.7