算法原理介绍 | 示例文档 | Model Zoo

--- # Paddle模型压缩工具库使用说明 本文第一章介绍PaddleSlim模块通用功能的使用,不涉及具体压缩策略的细节。第二章分别用4小节介绍量化训练、剪裁、蒸馏和轻量级模型结构搜索四种压缩策略的使用方式。 建议在看具体策略使用方式之前,先浏览下对应的原理介绍:算法原理介绍 >在本文中不区分operator和layer的概念。不区分loss和cost的概念。 ## 目录 - [通用功能使用说明](#1-paddleslim通用功能使用介绍) - [量化使用说明](#21-量化训练) - [剪裁使用说明](#22-模型通道剪裁) - [蒸馏使用说明](#23-蒸馏) - [轻量级模型结构搜索使用说明](#24-基于硬件的轻量级模型结构搜索) ## 1. PaddleSlim通用功能使用介绍 ## 1.1 使用压缩工具库的前提 ### 1.1.1 安装paddle **版本:** PaddlePaddle >= 1.4 **安装教程:** [安装说明](http://paddlepaddle.org/documentation/docs/zh/1.3/beginners_guide/install/index_cn.html) ### 1.1.2 搭建好网络结构 用户需要搭建好前向网络,并可以正常执行。 一个正常可执行的网络一般需要以下内容或操作: - 网络结构的定义 - data_reader - optimizer - 初始化,load pretrain model - feed list与fetch list #### 1.1.2.1 网络结构的定义 首先参考以下文档,配置网络: [《Paddle使用指南:配置简单的网络》](http://paddlepaddle.org/documentation/docs/zh/1.3/user_guides/howto/configure_simple_model/index.html) 这一步的产出应该是两个[Program](http://paddlepaddle.org/documentation/docs/zh/1.3/api_cn/fluid_cn.html#program)实例: - **train_program:** 用于在压缩过程中迭代训练模型,该program必须包含loss。一般该program不要有backward op和weights update op,否则不能使用蒸馏策略。 - **eval_program:** 用于在压缩过程中评估模型的精度,一般会包含accuracy、IoU等评估指标的计算layer。 >在量化训练策略中,会根据eval_program进行网络结构剪枝并保存一个用于inference的量化模型。这时候,就要求inference网络是eval_program的一个子网络。 #### 1.1.2.2. data_reader 按照以下文档准备数据: [《Paddle使用指南:准备数据》](http://paddlepaddle.org/documentation/docs/zh/1.3/user_guides/howto/prepare_data/index.html) 这一步需要产出两个DataReader: **train_reader:** 用于给train_program的执行提供数据 **eval_reader:** 用于给eval_program的执行提供数据 #### 1.1.2.3. optimizer [fluid.optimizer API](http://www.paddlepaddle.org/documentation/docs/zh/1.3/api_cn/optimizer_cn.html) 在不同的使用场景下,用户需要提供0个、1个或2个optimizer: - **0个optimizer:** 在模型搭建阶段的train_program已经是一个包含了反向op和模型weight更新op的网络,则不用再提供optimizer - **1个optimizer:** train_program只有前向计算op, 则需要提供一个optimizer,用于优化训练train_program. - **2个optimizer:** 在使用蒸馏策略时,且蒸馏训练阶段和单独fine-tune阶段用不同的优化策略。一个optimizer用于优化训练teacher网络和student网络组成的蒸馏训练网络,另一个optimizer用于单独优化student网络。更多细节会在蒸馏策略使用文档中介绍。 #### 1.1.2.4. load pretrain model - 剪裁:需要加载pretrain model - 蒸馏:根据需要选择是否加载pretrain model - 量化训练:需要加载pretrain model #### 1.1.2.5. feed list与fetch list feed list和fetch list是两个有序的字典, 示例如下: ``` feed_list = [('image', image.name), ('label', label.name)] fetch_list = [('loss', avg_cost.name)] ``` 其中,feed_list中的key为自定义的有一定含义的字符串,value是[Variable](http://paddlepaddle.org/documentation/docs/zh/1.3/api_guides/low_level/program.html#variable)的名称, feed_list中的顺序需要和DataReader提供的数据的顺序对应。 对于train_program和eval_program都需要有与其对应的feed_list和fetch_list。 >注意: 在train_program对应的fetch_list中,loss variable(loss layer的输出)对应的key一定要是‘‘loss’’ ## 1.2 压缩工具库的使用 经过1.1节的准备,所以压缩工具用到的关于目标模型的信息已经就绪,执行以下步骤配置并启动压缩任务: - 改写模型训练脚本,加入模型压缩逻辑 - 编写配置文件 - 执行训练脚本进行模型压缩 ### 1.2.1 如何改写普通训练脚本 在1.1节得到的模型脚本基础上做如下修改: 第一步: 构造`paddle.fluid.contrib.slim.Compressor`对象, Compressor构造方法参数说明如下: ``` Compressor(place, scope, train_program, train_reader=None, train_feed_list=None, train_fetch_list=None, eval_program=None, eval_reader=None, eval_feed_list=None, eval_fetch_list=None, teacher_programs=[], checkpoint_path='./checkpoints', train_optimizer=None, distiller_optimizer=None) ``` - **place:** 压缩任务使用的device。GPU请使用[paddle.fluid.CUDAPlace(0)](http://paddlepaddle.org/documentation/docs/zh/1.3/api_cn/fluid_cn.html#paddle.fluid.CUDAPlace) - **scope:** 如果在网络配置阶段没有构造scope,则用的是[global scope](http://paddlepaddle.org/documentation/docs/zh/1.3/api_cn/executor_cn.html#paddle.fluid.global_scope),该参数设置为`paddle.fluid.global_scope()`. 如果有自己构造scope,则设置为自己构造的scope. - **train_program:** 该program内的网络只有前向operator,而且必须带有loss. 关于program的概念,请参考:[Program API](http://paddlepaddle.org/documentation/docs/zh/1.3/api_cn/fluid_cn.html#program) - **train_reader:** 提供训练数据的[data reader](http://paddlepaddle.org/documentation/docs/zh/1.3/user_guides/howto/prepare_data/reader_cn.html) - **train_feed_list:** 用于指定train program的输入节点, 详见:1.1.2.5节。 - **train_fetch_list:** 用于指定train program的输出节点,详见:1.1.2.5节。 - **eval_program:** 用于评估模型精度的program - **eval_reader:** 提供评估数据的[data reader](http://paddlepaddle.org/documentation/docs/zh/1.3/user_guides/howto/prepare_data/reader_cn.html) - **eval_feed_list:** 用于指定eval program的输入节点,详见:1.1.2.5节。 - **eval_fetch_list:** 用于指定eval program的输出节点, 格式同train_fetch_list, 详见:1.1.2.5节。 - **teacher_programs:** 用于蒸馏的programs, 这些program需要和train program共用同一个scope. - **train_optimizer:** 用于训练train program的优化器 - **distiller_optimizer:** 用于蒸馏训练的优化器 第2步:读取配置文件和调用run方法,示例如下 ```python compressor.config('./compress.yaml') compressor.run() ``` 其中,compress.yaml文件是压缩策略配置文件,集中了压缩策略的所有可调节参数,在1.2.2节中会详细介绍其格式和内容。 完成该节操作后的完整示例见:[compress.py]() ### 1.2.2 配置文件的使用 模型压缩模块用[yaml](https://zh.wikipedia.org/wiki/YAML)文件集中管理可调节的压缩策略参数。我们以filter pruning为例,说明配置文件的编写方式。 第一步:注册pruners, 如下所示,指定pruner的类别和一些属性,后文**第5节**会详细介绍可选类别和属性的含义。 ```python pruners: pruner_1: class: 'StructurePruner' pruning_axis: '*': 0 criterions: '*': 'l1_norm' ``` 第二步:注册剪裁策略 如下所示,我们注册两个uniform剪裁策略,分别在第0个epoch和第10个epoch将模型的FLOPS剪掉10%. ```python strategies: pruning_strategy_0: class: 'UniformPruneStrategy' pruner: 'pruner_1' start_epoch: 0 target_ratio: 0.10 pruned_params: '.*_sep_weights' metric_name: 'acc_top1' pruning_strategy_1: class: 'UniformPruneStrategy' pruner: 'pruner_1' start_epoch: 10 target_ratio: 0.10 pruned_params: '.*_sep_weights' metric_name: 'acc_top1' ``` 第三步:配置通用参数 我们在compress_pass下配置整个压缩任务的参数,如下所示,整个压缩任务会执行120个epoch, 压缩过程中的checkpoint保存在./checkpoints路径下。compress_pass.strategies下为生效的压缩策略,如果生效的多个策略的start_epoch参数一样,则按compress_pass.strategies下列出的先后顺序被调用。 ```python compress_pass: epoch: 120 checkpoint_path: './checkpoints/' strategies: - pruning_strategy_0 - pruning_strategy_1 ``` compress_pass下可配置的参数有: - **epoch**: 整个压缩任务执行的epoch数量。 - **init_model**: 初始化模型路径。在裁剪策略中,会根据`init_model`中`parameter`的`shape`对当前网络进行裁剪。 - **checkpoint_path**: 保存`checkpoint`的路径, checkpoint中包含了模型训练信息和策略执行信息。在重启任务时,会自动从`checkpoint`路径下加载最新的`checkpoint`,所以用户需要根据自己的需求决定是否修改`checkpoint`。 - **strategies**: 在当前压缩任务中依次生效的策略。 ## 2. 模型压缩策略使用介绍 本章依次介绍量化训练、模型通道剪裁和蒸馏三种策略的使用方式,在此之前建议先浏览相应策略的原理介绍: - [量化训练原理](tutorial.md#1-quantization-aware-training量化介绍) - [模型通道剪裁原理](tutorial.md#2-模型通道剪裁原理) - [蒸馏原理](tutorial.md#3-蒸馏) ### 2.1 量化训练 **用户须知:** 现阶段的量化训练主要针对卷积层(包括二维卷积和Depthwise卷积)以及全连接层进行量化。卷积层和全连接层在PaddlePaddle框架中对应算子包括`conv2d`、`depthwise_conv2d`和`mul`等。量化训练会对所有的`conv2d`、`depthwise_conv2d`和`mul`进行量化操作,且要求它们的输入中必须包括激活和参数两部分。 #### 2.1.1 基于High-Level API的量化训练 >注意:多个压缩策略组合使用时,量化训练策略必须放在最后。 ``` class Compressor(object): def __init__(self, place, scope, train_program, train_reader=None, train_feed_list=None, train_fetch_list=None, eval_program=None, eval_reader=None, eval_feed_list=None, eval_fetch_list=None, teacher_programs=[], checkpoint_path='./checkpoints', train_optimizer=None, distiller_optimizer=None): ``` 在定义Compressor对象时,需要注意以下问题: - train program如果带反向operators和优化更新相关的operators, train_optimizer需要设置为None. - eval_program中parameter的名称需要与train_program中的parameter的名称完全一致。 - 最终保存的量化后的int8模型,是在eval_program网络基础上进行剪枝保存的,所以,如果用户希望最终保存的模型可以用于inference, 则eval program需要包含infer需要的各种operators. - checkpoint保存的是float数据类型的模型 在配置文件中,配置量化训练策略发方法如下: ``` strategies: quantization_strategy: class: 'QuantizationStrategy' start_epoch: 0 end_epoch: 10 float_model_save_path: './output/float' mobile_model_save_path: './output/mobile' int8_model_save_path: './output/int8' weight_bits: 8 activation_bits: 8 weight_quantize_type: 'abs_max' activation_quantize_type: 'abs_max' save_in_nodes: ['image'] save_out_nodes: ['quan.tmp_2'] compressor: epoch: 20 checkpoint_path: './checkpoints_quan/' strategies: - quantization_strategy ``` 可配置参数有: - **class:** 量化策略的类名称,目前仅支持`QuantizationStrategy` - **start_epoch:** 在start_epoch开始之前,量化训练策略会往train_program和eval_program插入量化operators和反量化operators. 从start_epoch开始,进入量化训练阶段。 - **end_epoch:** 在end_epoch结束之后,会保存用户指定格式的模型。注意:end_epoch之后并不会停止量化训练,而是继续训练到compressor.epoch为止。 - **float_model_save_path:** 保存float数据格式模型的路径。模型weight的实际大小在int8可表示范围内,但是是以float格式存储的。如果设置为None, 则不存储float格式的模型。默认为None. - **int8_model_save_path:** 保存int8数据格式模型的路径。如果设置为None, 则不存储int8格式的模型。默认为None. - **mobile_model_save_path:** 保存兼容paddle-mobile框架的模型的路径。如果设置为None, 则不存储mobile格式的模型。默认为None. - **weight_bits:** 量化weight的bit数,bias不会被量化。 - **activation_bits:** 量化activation的bit数。 - **weight_quantize_type:** 对于weight的量化方式,目前支持'abs_max', 'channel_wise_abs_max'. - **activation_quantize_type:** 对activation的量化方法,目前可选`abs_max`或`range_abs_max`。`abs_max`意为在训练的每个step和inference阶段动态的计算量化范围。`range_abs_max`意为在训练阶段计算出一个静态的范围,并将其用于inference阶段。 - **save_in_nodes:** variable名称列表。在保存量化后模型的时候,需要根据save_in_nodes对eval programg 网络进行前向遍历剪枝。默认为eval_feed_list内指定的variable的名称列表。 - **save_out_nodes:** varibale名称列表。在保存量化后模型的时候,需要根据save_out_nodes对eval programg 网络进行回溯剪枝。默认为eval_fetch_list内指定的variable的名称列表。 #### 2.1.2 基于Low-Level API的量化训练 量化训练High-Level API是对Low-Level API的高层次封装,这使得用户仅需编写少量的代码和配置文件即可进行量化训练。然而,封装必然会带来使用灵活性的降低。因此,若用户在进行量化训练时需要更多的灵活性,可参考 [量化训练Low-Level API使用示例](../quant_low_level_api/README.md) 。 ### 2.2 模型通道剪裁 该策略通过减少指定卷积层中卷积核的数量,达到缩减模型大小和计算复杂度的目的。根据选取剪裁比例的策略的不同,又细分为以下两个方式: - uniform pruning: 每层剪裁掉相同比例的卷积核数量。 - sensitive pruning: 根据每层敏感度,剪裁掉不同比例的卷积核数量。 两种剪裁方式都需要加载预训练模型。 通道剪裁是基于结构剪裁,所以在配置文件中需要注册一个`StructurePruner`, 如下所示: ``` pruners: pruner_1: class: 'StructurePruner' pruning_axis: '*': 0 criterions: '*': 'l1_norm' ``` 其中,一个配置文件可注册多个pruners, 所有pruner需要放在`pruners`关键字下, `pruner`的可配置参数有: - **class:** pruner 的类型,目前只支持`StructurePruner` - **pruning_axis:** 剪裁的纬度;'`conv*': 0`表示对所有的卷积层filter weight的第0维进行剪裁,即对卷积层filter的数量进行剪裁。 - **criterions**: 通过通配符指定剪裁不同parameter时用的排序方式。目前仅支持`l1_norm`. #### 2.2.1 uniform pruning uniform pruning剪裁策略需要在配置文件的`strategies`关键字下注册`UniformPruneStrategy`实例,并将其添加至compressor的strategies列表中。 如下所示: ``` strategies: uniform_pruning_strategy: class: 'UniformPruneStrategy' pruner: 'pruner_1' start_epoch: 0 target_ratio: 0.5 pruned_params: '.*_sep_weights' compressor: epoch: 100 strategies: - uniform_pruning_strategy ``` UniformPruneStrategy的可配置参数有: - **class:** 如果使用Uniform剪裁策略,请设置为`UniformPruneStrategy` - **pruner:** StructurePruner实例的名称,需要在配置文件中注册。在pruner中指定了对单个parameter的剪裁方式。 - **start_epoch:** 开始剪裁策略的epoch. 在start_epoch开始之前,该策略会对网络中的filter数量进行剪裁,从start_epoch开始对被剪裁的网络进行fine-tune训练,直到整个压缩任务结束。 - **target_ratio:** 将目标网络的FLOPS剪掉的比例。 - **pruned_params:** 被剪裁的parameter的名称,支持通配符。如,‘*’为对所有parameter进行剪裁,‘conv*’意为对所有名义以‘conv’开头的parameter进行剪裁。 #### 2.2.2 sensitive pruning sensitive剪裁策略需要在配置文件的`strategies`关键字下注册`SensitivePruneStrategy`实例,并将其添加至compressor的strategies列表中。 如下所示: ``` strategies: sensitive_pruning_strategy: class: 'SensitivePruneStrategy' pruner: 'pruner_1' start_epoch: 0 delta_rate: 0.1 target_ratio: 0.5 num_steps: 1 eval_rate: 0.2 pruned_params: '.*_sep_weights' sensitivities_file: 'mobilenet_acc_top1_sensitive.data' metric_name: 'acc_top1' compressor: epoch: 200 strategies: - sensitive_pruning_strategy ``` SensitivePruneStrategy可配置的参数有: - **class:** 如果使用敏感度剪裁策略,请设置为`SensitivePruneStrategy` - **pruner:** StructurePruner实例的名称,需要在配置文件中注册。在pruner中指定了对单个parameter的剪裁方式。 - **start_epoch:** 开始剪裁策略的epoch。 在start_epoch开始之前,该策略会对网络中的filter数量进行第一次剪裁。 - **delta_rate:** 统计敏感度信息时,剪裁率从0到1,依次递增delta_rate. 具体细节可参考[原理介绍文档]() - **target_ratio:** 将目标网络的FLOPS剪掉的比例。 - **num_steps:** 整个剪裁过程的步数。每次迭代剪掉的比例为:$step = 1 - (1-target\_ratio)^{\frac{1}{num\_steps}}$ - **eval_rate:** 计算敏感度时,随机抽取使用的验证数据的比例。在迭代剪裁中,为了快速重新计算每一步的每个parameter的敏感度,建议随机选取部分验证数据进行计算。当`num_steps`等于1时,建议使用全量数据进行计算。 #### 2.2.3 auto filter pruning 该策略使用模拟退火算法搜索得到一组剪裁率,按搜索到的这组剪裁率剪裁网络,并对剪裁后的网络进行训练。 自动通道剪裁策略需要在配置文件的`strategies`关键字下注册`AutoPruneStrategy`实例,并将其添加至compressor的strategies列表中。 如下所示: ``` strategies: auto_pruning_strategy: class: 'AutoPruneStrategy' pruner: 'pruner_1' controller: 'sa_controller' start_epoch: 0 end_epoch: 500 retrain_epoch: 0 max_ratio: 0.50 min_ratio: 0.48 uniform_range: 0.4 pruned_params: '.*_sep_weights' metric_name: 'acc_top1' compressor: epoch: 500 checkpoint_path: './checkpoints/' strategies: - auto_pruning_strategy ``` AutoPruneStrategy可配置的参数有: - **class:** 如果使用自动通道剪裁策略,请设置为`AutoPruneStrategy`。 - **pruner:** StructurePruner实例的名称,需要在配置文件中注册。在pruner中指定了对单个parameter的剪裁方式。 - **controller:** 用于搜索的controller, 需要在当前配置文件提前注册,下文会详细介绍其注册方法。 - **start_epoch:** 开始搜索剪裁率组合的的epoch。 - **end_epoch:** 结束搜索剪裁率组合的epoch。 在end_epoch,该策略会根据当前搜索到的最好的剪裁率组合对网络进行剪裁。 - **retrain_epoch:** 评估一个模型性能之前,需要训练的epoch的数量。默认为0。 - **max_ratio:** 剪掉FLOPS的最高比例。 - **target_ratio:** 剪掉FLOPS的最低比例。 - **uniform_range:** 每个Parameter最多允许被剪掉的比例。 - **pruned_params:** 被剪裁的parameter的名称,支持通配符。如,‘*’为对所有parameter进行剪裁,‘conv*’意为对所有名义以‘conv’开头的parameter进行剪裁。 - **metric_name:** 评估模型性能的指标。 controller的配置方式如下: ``` controllers: sa_controller: class: 'SAController' reduce_rate: 0.85 init_temperature: 10.24 max_iter_number: 300 ``` - **class:** distiller类名称,当前可选:`SAController`。 - **reduce_rate:** float类型;温度的衰减率。 - **init_temperature:** float类型;初始化温度。 - **max_iter_number:** int类型;在得到一个满足FLOPS限制的tokens之前,最多尝试的次数。 ### 2.3 蒸馏 PaddleSlim支持`FSP_loss`, `L2_loss`和`softmax_with_cross_entropy_loss`, 用户可以在配置文件中,用这三种loss组合teacher net和student net的任意一层。 与其它策略不同,如果要使用蒸馏策略,用户在脚本中构造Compressor对象时,需要指定teacher program 和distiller optimizer. 其中,teacher program有以下要求: - teacher program需要加载预训练好的模型。 - teacher program中的变量不能与student program中的变量有命名冲突。 - teacher program中只有前向计算operators, 不能有backward operators。 - 用户不必手动设置teacher program的stop_gradient属性(不计算gradient和不更新weight),PaddleSlim会自动将其设置为True. distiller optimizer用来为student net和teacher net组合而成的网络添加反向operators和优化相关的operators, 仅用于蒸馏训练阶段。 在配置文件中,配置蒸馏策略方式如下: ``` strategies: distillation_strategy: class: 'DistillationStrategy' distillers: ['fsp_distiller', 'l2_distiller'] start_epoch: 0 end_epoch: 130 ``` 其中, 需要在关键字`strategies`下注册策略实例,可配置参数有: - **class:** 策略类的名称,蒸馏策略请设置为DistillationStrategy。 - **distillers:** 一个distiller列表,列表中每一个distiller代表了student net和teacher net之间的一个组合loss。该策略会将这个列表中定义的loss加在一起作为蒸馏训练阶段优化的目标。 distiller需要提前在当前配置文件中进行注册,下文会详细介绍其注册方法。 - **start_epoch:** 在start_epoch开始之前,该策略会根据用户定义的losses将teacher net合并到student net中,并根据合并后的loss添加反向计算操作和优化更新操作。 - **end_epoch:** 在 end_epoch结束之后,该策略去将teacher net从student net中删除,并回复student net的loss. 在次之后,进入单独fine-tune student net的阶段。 distiller的配置方式如下: **FSPDistiller** ``` distillers: fsp_distiller: class: 'FSPDistiller' teacher_pairs: [['res2a_branch2a.conv2d.output.1.tmp_0', 'res3a_branch2a.conv2d.output.1.tmp_0']] student_pairs: [['depthwise_conv2d_1.tmp_0', 'conv2d_3.tmp_0']] distillation_loss_weight: 1 ``` - **class:** distiller类名称,可选:`FSPDistiller`,`L2Distiller`,`SoftLabelDistiller` - **teacher_pairs:** teacher网络对应的sections. 列表中每一个section由两个variable name表示,这两个variable代表网络中的两个feature map. 这两个feature map可以有不同的channel数量,但是必须有相同的长和宽。 - **student_pairs:** student网络对应的sections. student_pairs[i]与teacher_pairs[i]计算出一个fsp loss. - **distillation_loss_weight:** 当前定义的fsp loss对应的权重。默认为1.0 **L2-loss** ``` distillers: l2_distiller: class: 'L2Distiller' teacher_feature_map: 'fc_1.tmp_0' student_feature_map: 'fc_0.tmp_0' distillation_loss_weight: 1 ``` - **teacher_feature_map:** teacher网络中用于计算l2 loss的feature map - **student_feature_map:** student网络中用于计算l2 loss的feature map, shape必须与`teacher_feature_map`完全一致。 **SoftLabelDistiller** ``` distillers: soft_label_distiller: class: 'SoftLabelDistiller' student_temperature: 1.0 teacher_temperature: 1.0 teacher_feature_map: 'teacher.tmp_1' student_feature_map: 'student.tmp_1' distillation_loss_weight: 0.001 ``` - **teacher_feature_map:** teacher网络中用于计算softmax_with_cross_entropy的feature map。 - **student_feature_map:** student网络中用于计算softmax_with_cross_entropy的feature map。shape必须与`teacher_feature_map`完全一致。 - **student_temperature:** 在计算softmax_with_cross_entropy之前,用该系数除student_feature_map。 - **teacher_temperature:** 在计算softmax_with_cross_entropy之前,用该系数除teacher_feature_map。 - **distillation_loss_weight:** 当前定义的loss对应的权重。默认为1.0 ### 2.4 基于硬件的轻量级模型结构搜索 该功能基于模拟退火算法,实现了基于不同硬件的轻量级模型结构的快速搜索,简称为LightNAS (Light Network Architecture Search). 使用该功能,需要用户做三个工作: - 定义搜索空间 - (可选)基于不同的硬件,例如Android/iOS移动端、Android开发板等,配置延时评估器 - 配置LightNASStrategy,并启动搜索任务 #### 2.4.1 定义搜索空间 用户需要通过继承[SearchSpace类](https://github.com/PaddlePaddle/Paddle/blob/develop/python/paddle/fluid/contrib/slim/nas/search_space.py#L19)并重写其方法来定义搜索空间。用户需要重写实现的方法有: - `init_tokens`: `tokens` 以数组的形式格式表示网络结构,一个 `tokens` 对应一个网络结构。`init_tokens` 指搜索的初始化 `tokens`。 - `range_table`: 以数组的形式指定 `tokens` 数组中每个位置的取值范围,其长度与 `tokens` 长度相同。`tokens[i]` 的取值范围为 `[0, range_table[i])`。 - `create_net`: 根据指定的 `tokens` 构造初始化 `Program`、训练 `Program` 和测试 `Program`。 在[PaddlePaddle/models/light_nas](https://github.com/PaddlePaddle/models/blob/develop/PaddleSlim/light_nas/light_nas_space.py)下,定义了经过验证的一个搜索空间,建议一般用户直接用该搜索空间。 在构造 `Compressor` 对象时,按以下方式将 `SearchSpace` 实例传入: ``` ... space = LightNASSpace() ... com_pass = Compressor( place, fluid.global_scope(), train_prog, train_reader=train_reader, train_feed_list=None, train_fetch_list=train_fetch_list, eval_program=test_prog, eval_reader=test_reader, eval_feed_list=None, eval_fetch_list=val_fetch_list, train_optimizer=None, search_space=space) ``` #### 2.4.2 (可选) 基于不同硬件,配置延时评估器 用户需要根据自己定义的搜索空间,类似[LightNASSpace类](https://github.com/PaddlePaddle/models/blob/develop/PaddleSlim/light_nas/light_nas_space.py)中的 `get_all_ops` 函数,重写获取搜索空间所有可能 op 的方法。 用户需要根据其搜索空间所有可能的 op,生成延时评估器表格。延时评估器表格一般存放在类似[LightNASSpace类](https://github.com/PaddlePaddle/models/blob/develop/PaddleSlim/light_nas/light_nas_space.py)里面的 `LATENCY_LOOKUP_TABLE_PATH=latency_lookup_table.txt` 路径下。后面会详细介绍延时评估器表格的生成方式。 用户需要通过继承[SearchSpace类](https://github.com/PaddlePaddle/Paddle/blob/develop/python/paddle/fluid/contrib/slim/nas/search_space.py#L19)并重写下面方法: - `get_model_latency`: 参数 `program` 对应搜索到的某一个网络结构。使用该功能,用户能够根据不同硬件提前生成延时评估器表格,然后查询获取各个搜索到的网络的延时。 #### 2.4.3 配置 LightNASStrategy 在配置文件中,配置搜索策略方式如下: ``` strategies: light_nas_strategy: class: 'LightNASStrategy' controller: 'sa_controller' target_flops: 592948064 target_latency: 0 end_epoch: 500 retrain_epoch: 5 metric_name: 'acc_top1' server_ip: '' server_port: 8871 is_server: True search_steps: 100 ``` 其中, 需要在关键字 `strategies` 下注册策略实例,可配置参数有: - **class:** 策略类的名称,轻量级模型结构搜索策略请设置为LightNASStrategy。 - **controller:** 用于搜索的controller, 需要在当前配置文件提前注册,下文会详细介绍其注册方法。 - **target_flops:** FLOPS限制,搜索出的网络结构的FLOPS不超过该数值。 - **target_latency** 评估延时限制,搜索出的网络结构评估的延时不超过该数值。0 表示不限制,不会启动基于硬件的网络搜索。 - **end_epoch:** 当前client结束搜索策略的epoch。 - **retrain_epoch:** 在评估模型结构性能之前,需要训练的epoch数量。(end_epoch-0)/retrain_epoch为当前client搜索出的网络结构的数量。 - **metric_name:** 评估模型性能的指标。 - **server_ip:** 指定controller server的ip。默认为空,即自动获取当前机器的ip。 - **server_port:** 指定controller server监听的端口。 - **is_server:** 以当前配置文件启动的进程是否包含controller server. 整个搜索任务必须有且只有一个controller server。 - **search_steps:** controller server搜索的步数,也就是server产出的网络结构的数量。 controller的配置方式如下: ``` controllers: sa_controller: class: 'SAController' reduce_rate: 0.85 init_temperature: 10.24 max_iter_number: 300 ``` - **class:** distiller类名称,当前可选:`SAController`。 - **reduce_rate:** float类型;温度的衰减率。 - **init_temperature:** float类型;初始化温度。 - **max_iter_number:** int类型;在得到一个满足FLOPS限制的tokens之前,最多尝试的次数。 #### 2.4.4 分布式搜索 单机多任务: 单机多任务是指在一个机器上启动一个 controller server 和多个 client,client 从 controller 获取 tokens,根据 tokens 组建网络并训练评估,最后返回 reward 给 controller server。 在Compressor::run()执行时,会首先判断配置文件中的`is_server`是否为`True`, 然后做如下操作: - True: 判断当前路径下是否存在 `slim_LightNASStrategy_controller_server.socket` 文件,如果存在,则仅启动一个 client,如果不存在,则启动一个 controller server 和一个 client。 - False: 仅启动一个 client。 多机搜索: 多机搜索是指在一个机器上启动一个controller server,在多台机器上启动若干client。在启动controller server的机器上的配置文件里的is_server要设置为True。其它机器上的配置文件中的`is_server`要手动设置为False, 同时`server_ip`和`server_port`要设置为controller server对应的`ip`和`port`. >注意: 在重启controller server时,`slim_LightNASStrategy_controller_server.socket` 文件可能不会被及时清除,所以需要用户手动删除该文件。在后续版本中,会修复完善该问题。 #### 2.4.5 延时评估器生成方式 1. 延时评估器表格的标准形式 延时评估器表格一般存放在一个 .txt 文件中。对于不同的硬件平台,我们都会根据搜索空间中的所有可能 op 生成延时评估器表格。延时评估器表格中的每一行都对应一个 op,其内容形式如下: - `conv flag_bias flag_relu n_in c_in h_in w_in c_out groups kernel padding stride dilation latency` - `activation active_type n_in c_in h_in w_in latency` - `batch_norm active_type n_in c_in h_in w_in latency` - `eltwise eltwise_type n_in c_in h_in w_in latency` - `pooling flag_global_pooling n_in c_in h_in w_in kernel padding stride ceil_mode pool_type latency` - `softmax axis n_in c_in h_in w_in latency` 其中 `conv`、`activation`、`batch_norm`、`eltwise`、`pooling`、`softmax` 分别代表卷积运算、激活函数、batch normalization、elementwise 运算、池化以及 softmax 运算。目前主要支持了这些 op。参数含义如下: - active_type (string) - 激活函数类型,包含:relu, prelu, sigmoid, relu6, tanh。 - eltwise_type (int) - 按元素操作算子类型,其中 1 表示 elementwise_mul,2 表示elementwise_add,3 表示 elementwise_max。 - pool_type (int) - 池化类型,其中 1 表示 pooling_max,2 表示 pooling_average_include_padding,3 表示 pooling_average_exclude_padding。 - flag_bias (int) - 是否有 bias(0:无,1:有)。 - flag_global_pooling (int) - 是否为全局池化(0:不是,1:是)。 - flag_relu (int) - 是否有 relu(0:无,1:有)。 - n_in (int) - 输入 Tensor 的批尺寸 (batch size)。 - c_in (int) - 输入 Tensor 的通道 (channel) 数。 - h_in (int) - 输入 Tensor 的特征高度。 - w_in (int) - 输入 Tensor 的特征宽度。 - c_out (int) - 输出 Tensor 的通道 (channel) 数。 - groups (int) - 卷积二维层(Conv2D Layer)的组数。 - kernel (int) - 卷积核大小。 - padding (int) - 填充 (padding) 大小。 - stride (int) - 步长 (stride) 大小。 - dilation (int) - 膨胀 (dilation) 大小。 - axis (int) - 执行 softmax 计算的维度索引,应该在 [−1,rank − 1] 范围内,其中 rank 是输入变量的秩。 - ceil_mode (int) - 是否用 ceil 函数计算输出高度和宽度。0 表示使用 floor 函数,1 表示使用 ceil 函数。 - latency (float) - 当前op的延时时间 2. 不同硬件平台延时评估器的生成方法 Android 系统: - 用户从[这里](https://paddle-slim-models.bj.bcebos.com/Android_demo.zip)下载 Android 系统的延时评估器生成工具。 - 安装ADB。比如 macOS 系统, 可以利用brew一键安装,`brew cask install android-platform-tools`。 - 连接硬件平台。利用 adb devices 查看当前连接的设备,判断是否正确连接。 - 进入工具目录 Android_demo,命令行输入 `sh push2android.sh`, 把必要的文件放置到硬件平台。 - 在 `models/PaddleSlim/light_nas/` 目录下运行 `python get_latency_lookup_table.py` 就可以获取当前搜索空间的延时评估器表格 `latency_lookup_table.txt`。 - 另外一种方式:用户还可以将`models/PaddleSlim/light_nas/light_nas_space.py` 中的 `get_all_ops` 函数获取的所有 op 写入文件中,比如 `lightnas_ops.txt`,然后调用延时评估器生成工具包 `Android_demo` 目录下的 `get_latency_lookup_table.py` 函数产生评估器表格。 备注1:我们基于[Paddle Mobile](https://github.com/PaddlePaddle/paddle-mobile)预测库编写,编译并获取重要 op 单测延时、网络模型延时的二进制文件。重要 op 单测延时的二进制文件都被命名为 `get_{op}_latency`,其中对于不同 op 的单测程序,替换 `get_{op}_latency` 中的 `{op}` 为该 op 名称。所有单测均输出一个表示平均延时的浮点数。这些单测文件的调用方法如下: - `./get_activation_latency "threads test_iter active_type n_in c_in h_in w_in"` - `./get_batch_norm_latency "threads test_iter active_type n_in c_in h_in w_in"` - `./get_conv_latency "threads test_iter flag_bias flag_relu n_in c_in h_in w_in c_out group kernel padding stride dilation"` - `./get_eltwise_latency "threads test_iter eltwise_type n_in c_in h_in w_in"` - `./get_pooling_latency "threads test_iter flag_global_pooling n_in c_in h_in w_in kernel padding stride ceil_mode pool_type"` - `./get_softmax_latency "threads test_iter axis n_in c_in h_in w_in"` 可以看出,他们传入了一个字符串参数,这些字符串参数除开最初始的 `threads` 和 `test_iter` 以外,都与延时评估器表格中各个 op 的参数一样,其中 - threads (int) - 线程数(最大为手机支持的线程数)。 - test_iter (int) - 执行单测次数。 我们同样提供了测试整个模型延时的二进制文件,命名为 `get_net_latency`,它返回的是整个模型的延时。调用方法如下: - `./get_net_latency model_path threads test_iter` 其中 `model_path` 是保存 PaddlePaddle 模型的路径,用户需要利用 [paddle.fluid.io.save_inference_model](https://www.paddlepaddle.org.cn/documentation/docs/zh/1.5/api_cn/io_cn.html#save-inference-model)将参数保存为单独的文件。如何单独使用这些二进制文件可以参看[这里](https://github.com/PaddlePaddle/Paddle-Lite/blob/develop/mobile/doc/development_android.md)或者`get_latency_lookup_table.py`里面的类似方法。 备注2:用户如果有其他 op 的开发需求,可以根据 Paddle Mobile 的[op单测](https://github.com/PaddlePaddle/Paddle-Lite/tree/develop/mobile/test/operators)进行开发,基于android端的编译方法可以参见[这里](https://github.com/PaddlePaddle/Paddle-Lite/blob/develop/mobile/doc/development_android.md),欢迎大家贡献代码。 我们提供的示例 op 的单测代码可以在[这里](https://paddle-slim-models.bj.bcebos.com/android_op_test.zip)下载。用户通过 `git clone https://github.com/PaddlePaddle/Paddle-Lite.git` 命令, 将 android_op_test 里面的单测代码放置到 `Paddle-Lite/mobile/test/operators` 目录,然后修改 `Paddle-Lite/mobile/test/CMakeList.txt` 进行编译即可生成所需的二进制文件。 iOS系统: - 用户从[这里](https://paddle-slim-models.bj.bcebos.com/OpLatency.zip)下载iOS系统的延时评估器生成工具 OpLatency。 - 与Android系统不同的是,在使用延时评估器生成工具之前,用户需要把从 `models/PaddleSlim/light_nas/light_nas_space.py` 中的 `get_all_ops` 函数里面得到的搜索空间所有 op 参数写入到一个 .txt 文件中。该文件与延时评估器表格类似,每行内容对应一个 op,仅仅缺少该 op 的延时数据。在 LightNAS 中,我们将它命名为`lightnas_ops.txt`。 - 用户需要安装 Xcode,连接 iOS 硬件平台,目前不支持虚拟设备。注意选中项目名称 OpLatency,在 General-->Signing 中修改 developer 信息。 - 将上述准备好的 `lightnas_ops.txt` 文件拖入工程。注意根据提示勾选 `Add to targets`。 - 在 ViewController 我们调用了 OCWrapper 类里面的 `get_latency_lookup_table` 方法,修改其输入输出参数为 `lightnas_ops.txt` 与 `latency_lookup_table.txt`。 - 运行 OpLatency,生成手机 APP 的同时,程序会在 APP 沙盒中生成一个当前搜索空间的延时评估器表格 `latency_lookup_table.txt`。 - 点击 Windows-->Devices and Simulators-->OpLatency->Download Container 将沙盒下载到 PC,右键点击显示包内容,在 AppData-->Documents 即能找到延时评估器表格。 备注1:我们同样提供了测试整个模型延时的方法。可以在 ViewController 调用 OCWrapper 类里面的 `get_net_latency` 方法。其中 `get_net_latency` 的参数为 model 和 params 路径,用户需要利用 [paddle.fluid.io.save_inference_model](https://www.paddlepaddle.org.cn/documentation/docs/zh/1.5/api_cn/io_cn.html#save-inference-model)将所有参数打包存储。 备注2:用户如果有其他 op 的开发需求,可以根据我们[这里](https://paddle-slim-models.bj.bcebos.com/ios_op_test.zip)提供的代码示例进行开发。使用方法:解压并在命令行运行 `sh run.sh` 即可生成 OpLatency 里面所需的打包文件 `libpaddle-mobile.a` 和头文件 `ios_op_test.h`。