notes_autograd.md 4.3 KB
Newer Older
W
wizardforcel 已提交
1 2


P
PEGASUS 已提交
3
# 自动求导机制  
W
wizardforcel 已提交
4

W
credit  
wizardforcel 已提交
5
> 译者:[冯宝宝](https://github.com/PEGASUS1993)  
6
> 校验:[AlexJakin](https://github.com/AlexJakin)
W
credit  
wizardforcel 已提交
7

片刻小哥哥's avatar
片刻小哥哥 已提交
8
本说明将概述autograd(自动求导)如何工作并记录每一步操作。了解这些并不是绝对必要的,但我们建议您熟悉它,因为它将帮助你编写更高效,更清晰的程序,并可以帮助您进行调试。  
W
wizardforcel 已提交
9

W
wizardforcel 已提交
10
## 反向排除子图
W
wizardforcel 已提交
11

P
PEGASUS 已提交
12
每个张量都有一个标志:`requires_grad`,允许从梯度计算中细致地排除子图,并可以提高效率。    
W
wizardforcel 已提交
13

P
PEGASUS 已提交
14 15 16
### `requires_grad`   

只要有单个输入进行梯度计算操作,则其输出也需要梯度计算。相反,只有当所有输入都不需要计算梯度时,输出才不需要梯度计算。如果其中所有的张量都不需要进行梯度计算,后向计算不会在子图中执行。   
W
wizardforcel 已提交
17 18 19 20 21 22 23 24 25 26 27 28 29


```py
>>> x = torch.randn(5, 5)  # requires_grad=False by default
>>> y = torch.randn(5, 5)  # requires_grad=False by default
>>> z = torch.randn((5, 5), requires_grad=True)
>>> a = x + y
>>> a.requires_grad
False
>>> b = a + z
>>> b.requires_grad
True

P
PEGASUS 已提交
30 31
```  

MILI_BIN's avatar
MILI_BIN 已提交
32
当你想要冻结部分模型或者事先知道不会使用某些参数的梯度时,这个`requires_grad`标志非常有用。例如,如果要微调预训练的CNN,只需在冻结的基础中切换`requires_grad`标志就够了,并且直到计算到达最后一层,才会保存中间缓冲区,,其中仿射变换将使用所需要梯度的权重 ,网络的输出也需要它们。  
W
wizardforcel 已提交
33 34 35 36 37 38 39 40 41 42 43 44 45


```py
model = torchvision.models.resnet18(pretrained=True)
for param in model.parameters():
    param.requires_grad = False
# Replace the last fully-connected layer
# Parameters of newly constructed modules have requires_grad=True by default
model.fc = nn.Linear(512, 100)

# Optimize only the classifier
optimizer = optim.SGD(model.fc.parameters(), lr=1e-2, momentum=0.9)

P
PEGASUS 已提交
46 47 48 49 50
```  

## 自动求导是如何记录编码历史的   

自动求导是反向自动分化系统。从概念上讲,自动求导会记录一个图形,记录在执行操作时创建数据的所有操作,为您提供有向无环图,其叶子是输入张量,根节点是输出张量。通过从根到叶跟踪此图,您可以使用链法则自动计算梯度。   
W
wizardforcel 已提交
51

片刻小哥哥's avatar
片刻小哥哥 已提交
52
在内部,autograd将此图表示为`Function`对象(实际表达式)的图形,可以用来计算评估图形的结果。 当计算前向传播时,自动求导同时执行所请求的计算并建立表示计算梯度的函数的图形(每个`torch.Tensor``.grad_fn`属性是该图的入口点)。当前向传播完成时,我们在后向传播中评估该图以计算梯度。
W
wizardforcel 已提交
53

P
PEGASUS 已提交
54
需要注意的一点是,在每次迭代时都会从头开始重新创建图形,这正是允许使用任意Python控制流语句的原因,它可以在每次迭代时更改图形的整体形状和大小。 在开始训练之前,不必编码所有可能的路径 - 您运行的是您所区分的部分。  
W
wizardforcel 已提交
55

W
wizardforcel 已提交
56
## 使用autograd进行`in-place`操作  
W
wizardforcel 已提交
57

W
wizardforcel 已提交
58
在autograd中支持`in-place`操作是一件很难的事情,大多数情况下,我们不鼓励使用它们。Autograd积极的缓冲区释放和重用使其非常高效,实际上在`in-place`操作会大幅降低内存使用量的情况也非常少。除非在巨大的内存压力下运行,否则你可能永远不需要使用它们。  
W
wizardforcel 已提交
59

W
wizardforcel 已提交
60
限制`in-place`操作适用性的主要原因有两个:  
W
wizardforcel 已提交
61

P
PEGASUS 已提交
62
1. 这个操作可能会覆盖梯度计算所需的值。  
片刻小哥哥's avatar
片刻小哥哥 已提交
63
2. 实际上,每个`in-place`操作需要重写计算图。`out-of-place`版本只是分配新对象并保留对旧图的引用,而`in-place`操作则需要将所有输入的creator更改为表示此操作的`Function`。这就比较麻烦,特别是如果有许多变量引用同一存储(例如通过索引或转置创建的),并且如果被修改输入的存储被任何其他张量引用,这样的话,`in-place`函数会抛出错误。 
W
wizardforcel 已提交
64

P
PEGASUS 已提交
65
## In-place正确性检查  
W
wizardforcel 已提交
66

W
wizardforcel 已提交
67
每一个张量都有一个版本计算器,每次在任何操作中标记都会递增。 当`Function`保存任何用于后向传播的张量时,也会保存包含张量的版本计数器。一旦访问`self.saved_tensors`后,它将被检查,如果它大于保存的值,则会引发错误。这可以确保如果您使用`in-place`函数而没有看到任何错误,则可以确保计算出的梯度是正确的。
W
wizardforcel 已提交
68 69 70