【论文复现】UGATIT torch.optim.Adam parameters weight_decay
Created by: sincerevertigo
pytroch源码 self.G_optim = torch.optim.Adam(itertools.chain(self.genA2B.parameters(), self.genB2A.parameters()), lr=self.lr, betas=(0.5, 0.999), weight_decay=self.weight_decay)
做了如下的移植,不知是否可以。
paddle self.G_optim = fluid.optimizer.AdamOptimizer(learning_rate=self.lr, beta1=0.5, beta2=0.999, parameter_list=(self.genA2B.parameters(), self.genB2A.parameters()), regularization=fluid.regularizer.L2Decay(regularization_coeff=self.weight_decay))
主要不确定的点事,parameter_list 和惩罚项 是否能这么用。
谢谢。