faq_2022_s1.md 2.7 KB
Newer Older
H
HydrogenSulfate 已提交
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
# PaddleClas 相关常见问题汇总 - 2022 第 1 季

## 写在前面

* 我们收集整理了开源以来在 issues 和用户群中的常见问题并且给出了简要解答,旨在为广大用户提供一些参考,也希望帮助大家少走一些弯路。

* 图像分类、识别、检索领域大佬众多,模型和论文更新速度也很快,本文档回答主要依赖有限的项目实践,难免挂一漏万,如有遗漏和不足,也希望有识之士帮忙补充和修正,万分感谢。

## 目录

- [1. 理论篇](#1-理论篇)
- [2. 实战篇](#2-实战篇)
  - [2.1 训练与评估共性问题](#21-训练与评估共性问题)
    - [Q2.1.1 如何在训练时冻结某些层的参数?](#q211-如何在训练时冻结某些层的参数)

<a name="1"></a>
## 1. 理论篇

<a name="2"></a>
## 2. 实战篇

<a name="2.1"></a>
### 2.1 训练与评估共性问题

#### Q2.1.1 如何在训练时冻结某些层的参数?
**A**:目前有三种方法可以使用
1. 手动修改模型代码,使用`paddle.ParamAttr(learning_rate=0.0)`,将冻结层的学习率设置为0.0,具体用法可以查看[paddle.ParamAttr文档](https://www.paddlepaddle.org.cn/documentation/docs/zh/develop/api/paddle/ParamAttr_cn.html#paramattr)。如下代码可以将self.conv层的weight参数学习率设置为0.0。
   ```python
   self.conv = Conv2D(
        in_channels=num_channels,
        out_channels=num_filters,
        kernel_size=filter_size,
        stride=stride,
        padding=(filter_size - 1) // 2,
        groups=groups,
        weight_attr=ParamAttr(learning_rate=0.0), # <--在这里设置
        bias_attr=False,
        data_format=data_format)
   ```

H
HydrogenSulfate 已提交
41
2. 手动设置冻结层的stop_gradient=True,可参考[此链接](https://github.com/RainFrost1/PaddleClas/blob/24e968b8d9f7d9e2309e713cbf2afe8fda9deacd/ppcls/engine/train/train_idml.py#L40-L66)。使用此方法后,梯度回传到strop_gradient的层之后,停止反向回传,即之前的层的权重也会被固定。
H
HydrogenSulfate 已提交
42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57

3. 在loss.backward()之后,optimizer.step()之前,使用nn.Layer或者paddle.Tensor的clear_gradients()方法。对要固定的层或参数,调用此方法,不用影响loss回传。如下代码可以清空某一层的梯度或者是某一层的某个参数张量的梯度
    ```python
    import paddle
    linear = paddle.nn.Linear(3, 4)
    x = paddle.randn([4, 3])
    y = linear(x)
    loss = y.sum().backward()

    print(linear.weight.grad)
    print(linear.bias.grad)
    linear.clear_gradients()  # 清空整个Linear层的梯度,包括linear.weight和linear.bias
    # linear.weight.clear_grad()  # 只清空Linear.weight的梯度
    print(linear.weight.grad)
    print(linear.bias.grad)
    ```