Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleDetection
提交
9e306e6e
P
PaddleDetection
项目概览
PaddlePaddle
/
PaddleDetection
1 年多 前同步成功
通知
696
Star
11112
Fork
2696
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
184
列表
看板
标记
里程碑
合并请求
40
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleDetection
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
184
Issue
184
列表
看板
标记
里程碑
合并请求
40
合并请求
40
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
9e306e6e
编写于
1月 17, 2020
作者:
C
ceci3
提交者:
qingqing01
1月 17, 2020
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Add latency demo for blazeface (#182)
* Add latency table * Add latency demo * Update doc
上级
1e395f8a
变更
4
展开全部
隐藏空白更改
内联
并排
Showing
4 changed file
with
665 addition
and
11 deletion
+665
-11
slim/nas/README.md
slim/nas/README.md
+13
-4
slim/nas/blazeface.yml
slim/nas/blazeface.yml
+10
-2
slim/nas/latency_855.txt
slim/nas/latency_855.txt
+596
-0
slim/nas/train_nas.py
slim/nas/train_nas.py
+46
-5
未找到文件。
slim/nas/README.md
浏览文件 @
9e306e6e
...
...
@@ -5,7 +5,9 @@
## 概述
我们选取人脸检测的BlazeFace模型作为神经网络搜索示例,该示例使用
[
PaddleSlim
](
https://github.com/PaddlePaddle/PaddleSlim
)
辅助完成神经网络搜索实验,具体技术细节,请您参考
[
神经网络搜索策略
](
https://github.com/PaddlePaddle/PaddleSlim/blob/develop/docs/docs/tutorials/nas_demo.md
)
。
辅助完成神经网络搜索实验,具体技术细节,请您参考
[
神经网络搜索策略
](
https://github.com/PaddlePaddle/PaddleSlim/blob/develop/docs/docs/tutorials/nas_demo.md
)
。
<br>
基于PaddleSlim进行搜索实验过程中,搜索限制条件可以选择是浮点运算数(FLOPs)限制还是硬件延时(latency)限制,硬件延时限制需要提供延时表。本示例提供一份基于blazeface搜索空间的硬件延时表,名称是latency_855.txt(基于PaddleLite在骁龙855上测试的延时),可以直接用该表进行blazeface的硬件延时搜索实验。
<br>
硬件延时表每个字段的含义可以参考:
[
硬件延时表说明
](
https://github.com/PaddlePaddle/PaddleSlim/blob/develop/docs/docs/table_latency.md
)
## 定义搜索空间
...
...
@@ -15,9 +17,9 @@
-
单blaze模块
`blaze_filter_num2`
: 定义了BlazeFace单blaze模块中通道数变化区间,人为定义了适中的通道数区间;
-
过渡blaze模块
`mid_filter_num`
:定义了BlazeFace由单blaze模块到双blaze模块的过渡区间;
-
双blaze模块
`double_filter_num`
:定义了BlazeFace双blaze模块中通道数变化区间,人为定义了较大的通道数区间;
-
卷积核尺寸
`use_5x5kernel`
:定义了BlazeFace中卷积和尺寸大小是3x3或者5x5。
-
卷积核尺寸
`use_5x5kernel`
:定义了BlazeFace中卷积和尺寸大小是3x3或者5x5。
由于提供的延时表中只统计了3x3卷积的延时,所以启动硬件延时搜索实验时,需要把卷积核尺寸固定为3x3。
根据定义的搜索空间各个区间,我们的搜索空间tokens共9位,变化区间在([0, 0, 0, 0, 0, 0, 0, 0, 0], [7, 9, 12, 12, 6, 6, 6, 6, 2])范围内。
根据定义的搜索空间各个区间,我们的搜索空间tokens共9位,变化区间在([0, 0, 0, 0, 0, 0, 0, 0, 0], [7, 9, 12, 12, 6, 6, 6, 6, 2])范围内。
硬件延时搜索实验时,token的变化区间在([0, 0, 0, 0, 0, 0, 0, 0, 0], [7, 9, 12, 12, 6, 6, 6, 6, 1])范围内。
9位tokens分别表示:
...
...
@@ -46,7 +48,14 @@ blaze_filters与double_blaze_filters字段请参考[blazenet.py](../../ppdet/mod
## 开始搜索
首先需要安装PaddleSlim,请参考
[
安装教程
](
https://paddlepaddle.github.io/PaddleSlim/#_2
)
。
然后进入
`slim/nas`
目录中,修改blazeface.yml配置,配置文件中搜索配置字段含义请参考
[
NAS-API文档
](
https://github.com/PaddlePaddle/PaddleSlim/blob/develop/docs/docs/api/nas_api.md
)
,
然后进入
`slim/nas`
目录中,修改blazeface.yml配置,配置文件中搜索配置字段含义请参考
[
NAS-API文档
](
https://github.com/PaddlePaddle/PaddleSlim/blob/develop/docs/docs/api/nas_api.md
)
<br>
配置文件blazeface.yml中的
`Constraint`
字段表示当前搜索实验的搜索限制条件实例:
<br>
-
`ctype`
:具体的限制条件,可以设置为flops或者latency,分别表示浮点运算数限制和硬件延时限制。
-
`max_constraint`
:限制条件的最大值。
-
`min_constraint`
:限制条件的最小值。
-
`table_file`
:读取的硬件延时表文件的路径,这个字段只有在硬件延时搜索实验中才会用到。
然后开始搜索实验:
```
cd slim/nas
...
...
slim/nas/blazeface.yml
浏览文件 @
9e306e6e
...
...
@@ -8,16 +8,24 @@ save_dir: nas_checkpoint
# 1(label_class) + 1(background)
num_classes
:
2
# nas config
# nas config
start
reduce_rate
:
0.85
init_temperature
:
10.24
is_server
:
true
max_flops
:
531558400
search_steps
:
300
server_ip
:
"
"
server_port
:
8999
search_space
:
BlazeFaceNasSpace
Constraint
:
# choice: flops, latency
ctype
:
latency
max_constraint
:
57489
min_constraint
:
18000
# only need in latency search
table_file
:
latency_855.txt
# nas config end
LearningRate
:
base_lr
:
0.001
schedulers
:
...
...
slim/nas/latency_855.txt
0 → 100644
浏览文件 @
9e306e6e
此差异已折叠。
点击以展开。
slim/nas/train_nas.py
浏览文件 @
9e306e6e
...
...
@@ -40,7 +40,7 @@ import sys
sys
.
path
.
append
(
"../../"
)
from
ppdet.experimental
import
mixed_precision_context
from
ppdet.core.workspace
import
load_config
,
merge_config
,
create
from
ppdet.core.workspace
import
load_config
,
merge_config
,
create
,
register
from
ppdet.data.reader
import
create_reader
from
ppdet.utils
import
dist_utils
...
...
@@ -49,7 +49,7 @@ from ppdet.utils.stats import TrainingStats
from
ppdet.utils.cli
import
ArgsParser
from
ppdet.utils.check
import
check_gpu
,
check_version
import
ppdet.utils.checkpoint
as
checkpoint
from
paddleslim.analysis
import
flops
from
paddleslim.analysis
import
flops
,
TableLatencyEvaluator
from
paddleslim.nas
import
SANAS
import
search_space
...
...
@@ -59,6 +59,40 @@ logging.basicConfig(level=logging.INFO, format=FORMAT)
logger
=
logging
.
getLogger
(
__name__
)
@
register
class
Constraint
(
object
):
"""
Constraint for nas
"""
def
__init__
(
self
,
ctype
,
max_constraint
=
None
,
min_constraint
=
None
,
table_file
=
None
):
super
(
Constraint
,
self
).
__init__
()
self
.
ctype
=
ctype
self
.
max_constraint
=
max_constraint
self
.
min_constraint
=
min_constraint
self
.
table_file
=
table_file
def
compute_constraint
(
self
,
program
):
if
self
.
ctype
==
'flops'
:
model_status
=
flops
(
program
)
elif
self
.
ctype
==
'latency'
:
assert
os
.
path
.
exists
(
self
.
table_file
),
"latency constraint must have latency table, please check whether table file exist!"
model_latency
=
TableLatencyEvaluator
(
self
.
table_file
)
model_status
=
model_latency
.
latency
(
program
,
only_conv
=
True
)
else
:
raise
NotImplementedError
(
"{} constraint is NOT support!!! Now PaddleSlim support flops constraint and latency constraint"
.
format
(
self
.
ctype
))
return
model_status
def
get_bboxes_scores
(
result
):
bboxes
=
result
[
'bbox'
][
0
]
gt_bbox
=
result
[
'gt_bbox'
][
0
]
...
...
@@ -223,6 +257,7 @@ def main():
devices_num
,
cfg
)
eval_reader
=
create_reader
(
cfg
.
EvalReader
)
constraint
=
create
(
'Constraint'
)
for
step
in
range
(
cfg
.
search_steps
):
logger
.
info
(
'----->>> search step: {} <<<------'
.
format
(
step
))
archs
=
sa_nas
.
next_archs
()[
0
]
...
...
@@ -252,9 +287,15 @@ def main():
optimizer
.
minimize
(
loss
)
if
FLAGS
.
fp16
:
loss
/=
ctx
.
get_loss_scale_var
()
current_flops
=
flops
(
train_prog
)
logger
.
info
(
'current steps: {}, flops {}'
.
format
(
step
,
current_flops
))
if
current_flops
>
cfg
.
max_flops
:
current_constraint
=
constraint
.
compute_constraint
(
train_prog
)
logger
.
info
(
'current steps: {}, constraint {}'
.
format
(
step
,
current_constraint
))
if
(
constraint
.
max_constraint
!=
None
and
current_constraint
>
constraint
.
max_constraint
)
or
(
constraint
.
min_constraint
!=
None
and
current_constraint
<
constraint
.
min_constraint
):
continue
# parse train fetches
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录