- 18 10月, 2017 2 次提交
-
-
由 chengduoZH 提交于
-
由 chengduoZH 提交于
-
- 15 10月, 2017 12 次提交
-
-
由 dzhwinter 提交于
change: NewVar() to Var()
-
由 Dong Zhihong 提交于
-
由 Dong Zhihong 提交于
-
由 Yu Yang 提交于
* Final step of backward, return a map from param_name to grad * Complete the final step of backward Return the param_name to grad_info
-
由 Dong Zhihong 提交于
-
由 Qiao Longfei 提交于
* add target to Backward, generate var in block when call backward * modify backward_test * fix executor_test * set var desc default type to LOD_TENSOR * update backward_test * insert loss in the top level of backward * create grad vars for all blocks in current program * optimize code * update test_program.py * only create var for newly create blocks when backward
-
由 Dong Zhihong 提交于
-
由 fengjiayi 提交于
-
由 Dong Zhihong 提交于
-
由 Dong Zhihong 提交于
-
由 Dong Zhihong 提交于
-
由 Dong Zhihong 提交于
-
- 14 10月, 2017 6 次提交
-
-
由 fengjiayi 提交于
* Add debug string for Python ProtoBuf and Rename `Sync` to `Flush` * Add check of ProtoBuf initialization
-
由 fengjiayi 提交于
* Add grad_name_map * Fix bug * Fix bug * Follow comments
-
由 QI JUN 提交于
add selected rows
-
由 Yu Yang 提交于
* Update VarDesc from design doc * Fix GCC compile * Fix unittest
-
由 Yu Yang 提交于
-
由 Yi Wang 提交于
-
- 13 10月, 2017 20 次提交
-
-
由 Tao Luo 提交于
Fix pybind op register nokernel
-
由 Guo Sheng 提交于
Add gru_unit_op
-
由 typhoonzero 提交于
-
由 typhoonzero 提交于
-
由 Abhinav Arora 提交于
* Adding Hard Sigmoid Activation * Adding a comment for slope to be only positive * Fixing grammatical mistake in comment
-
由 Yan Chunwei 提交于
-
由 qijun 提交于
-
由 qijun 提交于
-
由 qijun 提交于
-
由 qijun 提交于
-
由 hedaoyuan 提交于
Use MinSizeRel compile third_party library when build for mobile infe…
-
由 helinwang 提交于
-
由 Yu Yang 提交于
* Add no_grad_vars for grad_op_maker * Add unittest * Fix unittest * Fix unittest * Follow comment
-
由 Yu Yang 提交于
Use less GPU memory
-
-
由 Yu Yang 提交于
-
由 Yu Yang 提交于
Update VarDesc design
-
由 Abhinav Arora 提交于
* add adam op moment1_out = beta1 * moment1 + (1 − beta1) * grad moment2_out = beta2 * moment2 + (1 − beta2) * grad * grad moment1_hat = moment1_out / (1 - beta1^t) moment2_hat = moment2_out / (1 - beta2^t) param_out = param - learning_rate * moment1_hat / (sqrt(moment2_hat) + epsilon) * fix moment 2 * Adding the Adam optimization operator * Adding more tests for Adam op
-
由 Yu Yang 提交于
-
由 dongzhihong 提交于
-