optimizer.minimize()的时候出错
Created by: Colorfu1
在计算knn的时候,算出loss,optimizer反向传播的时候报错。 dgcnn模型需要在模型计算过程中动态计算每条数据的knn数据都是哪些,所以需要使用fluid.layers中的操作来计算knn。错误定位在高亮的那一行 具体的报错信息为: 我不是很明白到底错误出现在哪里。 但是经过实验之后,发现在reshape的时候把stop_gradient设置成True,整个程序不会报错并且可以得到正确的knn结果。如下图所示,高亮部分为设置stop_gradient。 请问这到底是什么原因造成的,把stop_gradient设置成True之后,对于整个网络的梯度传播会有什么影响吗?求大神解释一下。