- 09 4月, 2020 8 次提交
-
-
由 Kaipeng Deng 提交于
extract input variable from feed
-
由 dengkaipeng 提交于
-
由 pkpk 提交于
sequence_tagging
-
由 pkpk 提交于
Update transformer
-
由 Kaipeng Deng 提交于
fix tsm.py and yolov3/dataset/download_voc.py
-
由 dengkaipeng 提交于
-
由 guosheng 提交于
-
由 guosheng 提交于
-
- 08 4月, 2020 8 次提交
-
-
由 guosheng 提交于
Update README
-
由 guosheng 提交于
-
由 Kaipeng Deng 提交于
Add tsm
-
-
由 0YuanZhang0 提交于
-
由 dengkaipeng 提交于
-
由 LielinJiang 提交于
add some image classification model
-
由 guosheng 提交于
-
- 07 4月, 2020 12 次提交
-
-
由 LielinJiang 提交于
-
由 LielinJiang 提交于
-
由 LielinJiang 提交于
-
由 LielinJiang 提交于
-
由 LielinJiang 提交于
-
由 qingqing01 提交于
Add CycleGAN.
-
由 0YuanZhang0 提交于
-
由 pkpk 提交于
add_lac_model
-
由 qingqing01 提交于
-
由 dengkaipeng 提交于
-
由 Kaipeng Deng 提交于
add YOLOv3
-
-
- 05 4月, 2020 1 次提交
-
-
由 dengkaipeng 提交于
-
- 04 4月, 2020 2 次提交
-
-
由 pkpk 提交于
Add Transformer implementation and text.py
-
由 LielinJiang 提交于
-
- 03 4月, 2020 9 次提交
-
-
由 dengkaipeng 提交于
-
-
由 dengkaipeng 提交于
-
-
由 Yang Zhang 提交于
Fix learning rate scaling bug
-
由 Yang Zhang 提交于
this bug is quite peculiar and hard to track down, when learning rate for a parameter is scaled via param_attr and learning rate schedulers are used, `append_optimizer_op` will error out complaining `LearningRate` input is null turns out learning rate scaling is done in `_create_param_lr`, which basically add a scale op, the problem is: it is appended to `orig_prog` (since `global_learning_rate()` variable is in it), therefore the resulting scaled learning rate variable can not be found in `train_prog`. the reason it works previously w/o lr scaling is this: `clone()` will create a variable with the same name as the `global_learning_rate()` variable, which will be used in `append_optimizer_op`
-
由 LielinJiang 提交于
-
由 LielinJiang 提交于
-
由 LielinJiang 提交于
-