提交 ef0eafd6 编写于 作者: G gaotingquan 提交者: Tingquan Gao

docs: supplement

上级 43fce425
...@@ -36,51 +36,59 @@ class net(TheseusLayer): ...@@ -36,51 +36,59 @@ class net(TheseusLayer):
## 2. 网络层描述符说明 ## 2. 网络层描述符说明
使用 `TheseusLayer` 提供的方法对模型进行操作/修改时,需要通过参数指定网络中间层,因此 `TheseusLayer` 规定了用于描述网络中间层的网络层描述符。网络层描述符为 Python 字符串(str)类型,使用网络层对象的变量名指定子层,以 `.` 作为网络层级的分隔符,对于 `nn.Sequential` 类型的层,使用 `["index"]` 指定其子层。 使用 `TheseusLayer` 提供的方法对模型进行操作/修改时,需要通过参数指定网络中间层,因此 `TheseusLayer` 规定了用于描述网络中间层的网络层描述符。
`MobileNetV1` 网络为例,其模型结构定义在 [MobileNetV1](../../../ppcls/arch/backbone/legendary_models/mobilenet_v1.py)。网络 `MobileNetV1``conv``blocks``avg_pool``flatten``fc` 4 个子层组成,其中 `blocks``nn.Sequential` 类型对象,包括 13 层 `DepthwiseSeparable` 类型的子层,`DepthwiseSeparable` 又由 `depthwise_conv``pointwise_conv` 2 个子层组成,`depthwise_conv``pointwise_conv` 均为 `ConvBNLayer` 类型对象,由 `conv``bn``relu` 3 层子层组成,如下图所示: 网络层描述符的使用需要符合以下规则:
* 为 Python 字符串(str)类型;
* 使用网络层对象的变量名指定该网络层;
*`.` 作为网络层级的分隔符;
* 对于 `nn.Sequential` 类型或是 `nn.LayerList` 类型的层,使用 `["index"]` 指定其子层。
``` `MobileNetV1` 网络为例,其模型结构定义在 [MobileNetV1](../../../ppcls/arch/backbone/legendary_models/mobilenet_v1.py),为方便说明,可参考下方网络结构及不同网络层所对应的网络层描述符。可以清晰看出,对于 `MobileNetV1` 网络的任一子层,均可按层级结构逐层指定,不同层级结构间使用 `.` 进行分隔即可。
MobileNetV1 (TheseusLayer)
├── conv (ConvBNLayer) ```shell
│   ├── conv (nn.Conv2D) # 网络层对象的变量名(该对象所属类)....................(该网络层对应的网络层描述符)
│   ├── bn (nn.BatchNorm)
│   └── relu (nn.ReLU) MobileNetV1
├── conv (ConvBNLayer)............................("conv")
│   ├── conv (nn.Conv2D)..........................("conv.conv")
│   ├── bn (nn.BatchNorm).........................("conv.bn")
│   └── relu (nn.ReLU)............................("conv.relu")
├── blocks (nn.Sequential) ├── blocks (nn.Sequential)........................("blocks")
│   ├── blocks0 (DepthwiseSeparable) │   ├── blocks0 (DepthwiseSeparable)..............("blocks[0]")
│   │   ├── depthwise_conv (ConvBNLayer) │   │   ├── depthwise_conv (ConvBNLayer)..........("blocks[0].depthwise_conv")
│   │   │   ├── conv (nn.Conv2D) │   │   │   ├── conv (nn.Conv2D)..................("blocks[0].depthwise_conv.conv")
│   │   │   ├── bn (nn.BatchNorm) │   │   │   ├── bn (nn.BatchNorm).................("blocks[0].depthwise_conv.bn")
│   │   │   └── relu (nn.ReLU) │   │   │   └── relu (nn.ReLU)....................("blocks[0].depthwise_conv.relu")
│   │   └── pointwise_conv (ConvBNLayer) │   │   └── pointwise_conv (ConvBNLayer)..........("blocks[0].pointwise_conv")
│   │   ├── conv (nn.Conv2D) │   │   ├── conv (nn.Conv2D)..................("blocks[0].pointwise_conv.conv")
│   │   ├── bn (nn.BatchNorm) │   │   ├── bn (nn.BatchNorm).................("blocks[0].pointwise_conv.bn")
│   │   └── relu (nn.ReLU) │   │   └── relu (nn.ReLU)....................("blocks[0].pointwise_conv.relu")
│   . │   .
│   . │   .
│   . │   .
│   └── blocks12 (DepthwiseSeparable) │   └── blocks12 (DepthwiseSeparable).............("blocks[12]")
│      ├── depthwise_conv (ConvBNLayer) │      ├── depthwise_conv (ConvBNLayer)..........("blocks[0].depthwise_conv")
│      │   ├── conv (nn.Conv2D) │      │   ├── conv (nn.Conv2D)..................("blocks[0].depthwise_conv.conv")
│      │   ├── bn (nn.BatchNorm) │      │   ├── bn (nn.BatchNorm).................("blocks[0].depthwise_conv.bn")
│      │   └── relu (nn.ReLU) │      │   └── relu (nn.ReLU)....................("blocks[0].depthwise_conv.relu")
│      └── pointwise_conv (ConvBNLayer) │      └── pointwise_conv (ConvBNLayer)..........("blocks[0].pointwise_conv")
│      ├── conv (nn.Conv2D) │      ├── conv (nn.Conv2D)..................("blocks[0].pointwise_conv.conv")
│      ├── bn (nn.BatchNorm) │      ├── bn (nn.BatchNorm).................("blocks[0].pointwise_conv.bn")
│      └── relu (nn.ReLU) │      └── relu (nn.ReLU)....................("blocks[0].pointwise_conv.relu")
├── avg_pool (nn.AdaptiveAvgPool2D) ├── avg_pool (nn.AdaptiveAvgPool2D)...............("avg_pool")
├── flatten (nn.Flatten) ├── flatten (nn.Flatten)..........................("flatten")
└── fc (nn.Linear) └── fc (nn.Linear)................................("fc")
``` ```
因此,对于 `MobileNetV1` 而言: 因此,对于 `MobileNetV1` 网络:
* 网络层描述符 `blocks[0].depthwise_conv.conv`,其指定了网络 `MobileNetV1``blocks` 层中的第 `1``DepthwiseSeparable` 对象中的 `depthwise_conv` 中的 `conv` 这一层;
* 网络层描述符 `blocks[5]`,其指定了网络 `MobileNetV1``blocks` 层中的第 `6``DepthwiseSeparable` 对象这一层;
* 网络层描述符 `flatten`,其指定了网络 `MobileNetV1``flatten` 这一层。 * 网络层描述符 `flatten`,其指定了网络 `MobileNetV1``flatten` 这一层。
* 网络层描述符 `blocks[5]`,其指定了网络 `MobileNetV1``blocks` 层中的第 `6``DepthwiseSeparable` 对象这一层;
* 网络层描述符 `blocks[0].depthwise_conv.conv`,其指定了网络 `MobileNetV1``blocks` 层中的第 `1``DepthwiseSeparable` 对象中的 `depthwise_conv` 中的 `conv` 这一层;
<a name="3"></a> <a name="3"></a>
...@@ -104,26 +112,14 @@ def stop_after(self, stop_layer_name: str) -> bool: ...@@ -104,26 +112,14 @@ def stop_after(self, stop_layer_name: str) -> bool:
""" """
``` ```
该方法可通过参数 `stop_layer_name` 指定网络中的特定子层,并将该层之后的所有层修改为映射层(`Identity`),从而达到网络截断的目的。映射层(`Identity`)的定义如下: 该方法可通过参数 `stop_layer_name` 指定网络中的特定子层,并停止该层之后的所有层的前后向传输,在逻辑上,该层之后不再有其他网络层。
```python * 参数:
class Identity(nn.Layer): * `stop_layer_name``str` 类型的对象,用于指定网络子层的网络层描述符。关于网络层描述符的具体规则,请查看[网络层描述符说明](#2)
def __init__(self): * 返回值:
super(Identity, self).__init__() * 当该方法成功执行时,其返回值为 `True`,否则为 `False`
def forward(self, inputs):
return inputs
```
当该方法成功执行时,其返回值为 `True`,否则为 `False` `MobileNetV1` 网络为例,参数 `stop_layer_name``"blocks[0].depthwise_conv.conv"`,具体效果可以参考下方代码案例进行尝试。
`MobileNetV1` 网络为例,当 `stop_layer_name``"blocks[0].depthwise_conv.conv"`,该方法:
* 将网络 `MobileNetV1``avg_pool``flatten``fc` 置为 `Identity`
*`blocks` 层的第 2 至 第 13 个子层置为 `Identity`
*`blocks` 层第 1 个子层的 `pointwise_conv` 置为 `Identity`
*`blocks` 层第 1 个子层的 `depthwise_conv``bn``relu` 置为 `Identity`
具体效果可以参考下方代码案例进行尝试。
```python ```python
import paddleclas import paddleclas
...@@ -158,9 +154,14 @@ def update_res( ...@@ -158,9 +154,14 @@ def update_res(
""" """
``` ```
该方法可通过参数 `return_patterns` 指定一层或多层网络的中间子层,并在网络前向时,将指定层的输出结果与网络的最终结果一同返回。该方法的返回值为 `dict` 对象,元素为设置成功的层,其中,key 为设置成功的网络层描述符,value 为对应的网络层对象。 该方法可通过参数 `return_patterns` 指定一层(str 对象)或多层(list 对象)网络的中间子层,并在网络前向时,将指定层的输出结果与网络的最终结果一同返回。
* 参数:
* `return_patterns`:作为网络层描述符的 `str` 对象,或是 `str` 对象所组成的 `list` 对象,其元素为用于指定网络子层的网络层描述符。关于网络层描述符的具体规则,请查看[网络层描述符说明](#2)
* 返回值:
* 该方法的返回值为 `list` 对象,元素为设置成功的子层的网络层描述符。
`MobileNetV1` 网络为例,当 `return_patterns``["blocks[0]", "blocks[2]", "blocks[4]", "blocks[10]"]`,在网络前向推理时,网络的输出结果将包含以上 4 层的输出,具体效果可以参考下方代码案例进行尝试。 `MobileNetV1` 网络为例,当 `return_patterns``["blocks[0]", "blocks[2]", "blocks[4]", "blocks[10]"]`,在网络前向推理时,网络的输出结果将包含以上 4 层的输出和网络最终的输出,具体效果可以参考下方代码案例进行尝试。
```python ```python
import numpy as np import numpy as np
...@@ -178,11 +179,12 @@ print("The output's type of origin net: ", type(output)) ...@@ -178,11 +179,12 @@ print("The output's type of origin net: ", type(output))
res = net.update_res(return_patterns=["blocks[0]", "blocks[2]", "blocks[4]", "blocks[10]"]) res = net.update_res(return_patterns=["blocks[0]", "blocks[2]", "blocks[4]", "blocks[10]"])
print("The result returned by update_res(): ", res) print("The result returned by update_res(): ", res)
# The result returned by update_res(): {'blocks[0]': ...} # The result returned by update_res(): ['blocks[0]', 'blocks[2]', 'blocks[4]', 'blocks[10]']
output = net(pd_input) output = net(pd_input)
print("The output's keys of processed net: ", output.keys()) print("The output's keys of processed net: ", output.keys())
# The output's keys of net: dict_keys(['output', 'blocks[0]', 'blocks[2]', 'blocks[4]', 'blocks[10]']) # The output's keys of net: dict_keys(['output', 'blocks[0]', 'blocks[2]', 'blocks[4]', 'blocks[10]'])
# 网络前向输出 output 为 dict 类型对象,其中,output["key"] 为网络最终输出,output["blocks[0]"] 等为网络中间层输出结果
``` ```
除了通过调用方法 `update_res()` 的方式之外,也同样可以在实例化网络对象时,通过指定参数 `return_patterns` 实现相同效果: 除了通过调用方法 `update_res()` 的方式之外,也同样可以在实例化网络对象时,通过指定参数 `return_patterns` 实现相同效果:
...@@ -191,6 +193,16 @@ print("The output's keys of processed net: ", output.keys()) ...@@ -191,6 +193,16 @@ print("The output's keys of processed net: ", output.keys())
net = paddleclas.MobileNetV1(pretrained=True, return_patterns=["blocks[0]", "blocks[2]", "blocks[4]", "blocks[10]"]) net = paddleclas.MobileNetV1(pretrained=True, return_patterns=["blocks[0]", "blocks[2]", "blocks[4]", "blocks[10]"])
``` ```
并且在实例化网络对象时,还可以通过参数 `return_stages` 指定网络不同 `stage` 的输出,如下方代码所示:
```python
# 当 `return_stages` 为 `True`,会将网络所有 stage 的前向输出一并返回,如下所示:
net = paddleclas.MobileNetV1(pretrained=True, return_stages=True)
# 当 `return_stages` 为 list 对象,可以指定需要返回输出结果的 stage 的序号,如下所示:
net = paddleclas.MobileNetV1(pretrained=True, return_stages=[0, 1, 2, 3])
```
<a name="3.3"></a> <a name="3.3"></a>
### 3.3 修改网络中间层(upgrade_sublayer) ### 3.3 修改网络中间层(upgrade_sublayer)
...@@ -211,9 +223,15 @@ def upgrade_sublayer(self, ...@@ -211,9 +223,15 @@ def upgrade_sublayer(self,
""" """
``` ```
该方法可通过参数 `layer_name_pattern` 指定一层或多层网络子层,并使用参数 `handle_func` 所指定的函数对指定的子层进行修改。该方法的返回值为 `dict`,元素为修改的层,其中,key 为指定的网络层描述符,value 为 `handle_func` 针对该层的返回结果。 该方法可通过参数 `layer_name_pattern` 指定一层(str 对象)或多层(list 对象)网络中间子层,并使用参数 `handle_func` 所指定的函数对指定的子层进行修改。
* 参数:
* `layer_name_pattern`:作为网络层描述符的 `str` 对象,或是 `str` 对象所组成的 `list` 对象,其元素为用于指定网络子层的网络层描述符。关于网络层描述符的具体规则,请查看[网络层描述符说明](#2)
* `handle_func`:有 2 个形参的可调用对象,第 1 个形参为 `nn.Layer` 类型,第 2 个形参为 `str` 类型,该可调用对象返回值必须为 `nn.Layer` 类型对象或是有 `forward` 方法的对象。
* 返回值:
* 该方法的返回值为 `list` 对象,元素为修改成功的网络子层的网络层描述符。
`upgrade_sublayer` 方法会根据 `layer_name_pattern` 查找对应的网络子层,并将查找到的子层和其 `pattern` 传入可调用对象 `handle_func`,并使用 `handle_func` 的返回值替换该层。需要注意的是,形参 `handle_func` 须为可调用对象,且该对象应有 2 个形参,第 1 个形参为 `nn.Layer` 类型,第 2 个形参为 `str` 类型,该可调用对象返回值必须为 `nn.Layer` 类型对象。 `upgrade_sublayer` 方法会根据 `layer_name_pattern` 查找对应的网络子层,并将查找到的子层和其 `pattern` 传入可调用对象 `handle_func`,并使用 `handle_func` 的返回值替换该层。
`MobileNetV1` 网络为例,将网络最后的 2 个 block 中的深度可分离卷积(depthwise_conv)改为 `5*5` 大小的卷积核,同时将 padding 改为 `2`,如下方代码所示: `MobileNetV1` 网络为例,将网络最后的 2 个 block 中的深度可分离卷积(depthwise_conv)改为 `5*5` 大小的卷积核,同时将 padding 改为 `2`,如下方代码所示:
...@@ -221,13 +239,22 @@ def upgrade_sublayer(self, ...@@ -221,13 +239,22 @@ def upgrade_sublayer(self,
from paddle import nn from paddle import nn
import paddleclas import paddleclas
# 该函数必须有两个形参
# 第一个形参用于接受指定的网络中间子层
# 第二个形参用于接受指定网络子层的网络层描述符
def rep_func(layer: nn.Layer, pattern: str): def rep_func(layer: nn.Layer, pattern: str):
new_layer = nn.Conv2D( new_layer = nn.Conv2D(
# layer 为 blocks[11].depthwise_conv.conv 或
# blocks[12].depthwise_conv.conv 所对应的网络中间子层
# 因此,新的网络层(new_layer)与被替换掉的网络层具有相同的
# in_channels 属性和 out_channels 属性
in_channels=layer._in_channels, in_channels=layer._in_channels,
out_channels=layer._out_channels, out_channels=layer._out_channels,
kernel_size=5, kernel_size=5,
padding=2 padding=2
) )
# 该函数返回值为新的网络层
# upgrade_sublayer() 方法将使用该返回值替换对应的网络中间子层
return new_layer return new_layer
net = paddleclas.MobileNetV1(pretrained=True) net = paddleclas.MobileNetV1(pretrained=True)
...@@ -236,7 +263,7 @@ print(net) ...@@ -236,7 +263,7 @@ print(net)
res = net.upgrade_sublayer(layer_name_pattern=["blocks[11].depthwise_conv.conv", "blocks[12].depthwise_conv.conv"], handle_func=rep_func) res = net.upgrade_sublayer(layer_name_pattern=["blocks[11].depthwise_conv.conv", "blocks[12].depthwise_conv.conv"], handle_func=rep_func)
print("The result returned by upgrade_sublayer() is", res) print("The result returned by upgrade_sublayer() is", res)
# The result returned by replace_sub() is {'blocks[11].depthwise_conv.conv': Conv2D(512, 512, kernel_size=[5, 5], padding=2, data_format=NCHW), 'blocks[12].depthwise_conv.conv': Conv2D(1024, 1024, kernel_size=[5, 5], padding=2, data_format=NCHW)} # The result returned by upgrade_sublayer() is ['blocks[11].depthwise_conv.conv', 'blocks[12].depthwise_conv.conv']
print("\n\n========== the upgraded mobilenetv1 net arch ==========") print("\n\n========== the upgraded mobilenetv1 net arch ==========")
print(net) print(net)
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册