- 03 11月, 2017 1 次提交
 - 
- 
由 Kexin Zhao 提交于
 
 - 
 - 31 10月, 2017 1 次提交
 - 
- 
由 QI JUN 提交于
* reimplement pow operator * add pow_grad operator * fix code style * fix build error * fix op_test bug * revert pow operator * add FIXME comment
 
 - 
 - 27 10月, 2017 1 次提交
 - 
- 
由 Yu Yang 提交于
* Simplize Gradient Check * Stash * Extract apply_backward_pass to backward.py Rename apply_backward_pass to append_backward_ops * Use graph API to check gradient * Fix ci * Fix CI * Fix backward for double precision * Stash * Fix CI * Fix ci * Ignore GRU test * Ignore xe op * Fix CI * Fix softmax with xe gradient The correct equation should be IG = OG * (d_softmax_with_xe()) * Fix typo * Fix merge error * Disable LRN
 
 - 
 - 13 10月, 2017 1 次提交
 - 
- 
由 Abhinav Arora 提交于
* Adding Hard Sigmoid Activation * Adding a comment for slope to be only positive * Fixing grammatical mistake in comment
 
 - 
 - 12 10月, 2017 1 次提交
 - 
- 
由 Abhinav Arora 提交于
* Adding thresholded_relu op * Adding test for thresholded relu op
 
 - 
 - 11 10月, 2017 3 次提交
 - 
- 
由 kexinzhao 提交于
* implementing softplus * small fix * small fix * small fix * small fix
 - 
由 kavyasrinet 提交于
* Implemented the hardShrink activation * Fixing the unit test
 - 
由 Siddharth Goyal 提交于
* Add numerically-stable logsigmoid activation * Add softshrink operator * Adjust relative tolerance for grad-check * Address review comments
 
 - 
 - 10 10月, 2017 1 次提交
 - 
- 
由 kavyasrinet 提交于
 
 - 
 - 06 10月, 2017 2 次提交
 - 
- 
由 Kavya Srinet 提交于
 - 
由 Kavya Srinet 提交于
 
 - 
 - 05 10月, 2017 1 次提交
 - 
- 
由 Kavya Srinet 提交于
 
 - 
 - 29 9月, 2017 3 次提交
 - 
- 
由 zhouxiao-coder 提交于
 - 
由 Abhinav Arora 提交于
 - 
由 Yu Yang 提交于
 
 - 
 - 28 9月, 2017 1 次提交
 - 
- 
由 Yu Yang 提交于
 
 - 
 - 14 9月, 2017 5 次提交
 - 13 9月, 2017 1 次提交
 - 
- 
由 qijun 提交于
 
 -