动态图是否支持对指定Param求梯度
Created by: baiyfbupt
类似pytorch的
torch.autograd.grad(loss, params)
或者paddle 静态图的
fluid.gradients(loss, params)
paddle 动态图中目前只找到一种方法,全图backward,再取出目标梯度
loss.backward()
grads = [param._grad_ivar() for param in target_params]
最后这种方法对整个网络求了梯度,但如果我只需要其中的很小一部分,这种方法可能会有速度问题。想咨询下目前动态图是否可以支持loss仅对指定的param求梯度