如何设置learning rate decay?Annealing the learning rate
Created by: OleNet
在optimizers.py里面,我看到了设置learning rate decay的参数, 不过有两个,learning_rate_decay_a=0., learning_rate_decay_b=0., 请问这两个参数有什么区别呢、分别代表什么含义呢?我应该用哪一个呢? 似乎并没有相关的wiki、文档记录呢。
Created by: OleNet
在optimizers.py里面,我看到了设置learning rate decay的参数, 不过有两个,learning_rate_decay_a=0., learning_rate_decay_b=0., 请问这两个参数有什么区别呢、分别代表什么含义呢?我应该用哪一个呢? 似乎并没有相关的wiki、文档记录呢。