- 06 1月, 2020 3 次提交
-
-
由 Yang Zhang 提交于
-
由 Yang Zhang 提交于
-
由 Yang Zhang 提交于
optimizer use `default_main_program()` as key for learning rate map, `Program` seem to rely on object hash for equality check, and cloned program is not equal to the original
-
- 02 1月, 2020 2 次提交
-
-
由 Yang Zhang 提交于
-
由 Yang Zhang 提交于
parameters are bound to model not program, critical for transfer learning to work parameters should be reusable between static/dynamic graph optimizer state is not reusable
-
- 31 12月, 2019 5 次提交
-
-
由 Yang Zhang 提交于
1. weights are bound to respective models 2. models can coexists in same scope (actual parameter names are uniqued) 3. this make model composition (e.g., transfer learning) harder
-
由 Yang Zhang 提交于
-
由 Yang Zhang 提交于
-
由 Yang Zhang 提交于
-
由 Yang Zhang 提交于
-
- 17 12月, 2019 1 次提交
-
-
由 Yang Zhang 提交于
-
- 16 12月, 2019 1 次提交
-
-
由 XiaoguangHu 提交于
-