Created by: phlrain
用户期望将部分网络不学习,只做预测,设置了var.stop_gradient= True之后,显存占用并没有下降,
stop_gradient = True 之后,只是设置了var的属性,并没有将 var的 grad_node,置为空,相当于stop_gradient之前的var 一直被hold住,显存无法释放,只有backward执行的时候,设置stop_gradient 的var析构之后, grad_node 才会被析构