- 27 10月, 2017 1 次提交
- 
- 
由 Yu Yang 提交于* Simplize Gradient Check * Stash * Extract apply_backward_pass to backward.py Rename apply_backward_pass to append_backward_ops * Use graph API to check gradient * Fix ci * Fix CI * Fix backward for double precision * Stash * Fix CI * Fix ci * Ignore GRU test * Ignore xe op * Fix CI * Fix softmax with xe gradient The correct equation should be IG = OG * (d_softmax_with_xe()) * Fix typo * Fix merge error * Disable LRN 
 
- 
- 24 10月, 2017 1 次提交
- 
- 
由 Yang Yang(Tony) 提交于Pass all forward op test 
 
- 
- 13 10月, 2017 1 次提交
- 
- 
由 Abhinav Arora 提交于* Adding Hard Sigmoid Activation * Adding a comment for slope to be only positive * Fixing grammatical mistake in comment 
 
- 
- 12 10月, 2017 1 次提交
- 
- 
由 Abhinav Arora 提交于* Adding thresholded_relu op * Adding test for thresholded relu op 
 
- 
- 11 10月, 2017 3 次提交
- 
- 
由 kexinzhao 提交于* implementing softplus * small fix * small fix * small fix * small fix 
- 
由 kavyasrinet 提交于* Implemented the hardShrink activation * Fixing the unit test 
- 
由 Siddharth Goyal 提交于* Add numerically-stable logsigmoid activation * Add softshrink operator * Adjust relative tolerance for grad-check * Address review comments 
 
- 
- 10 10月, 2017 1 次提交
- 
- 
由 kavyasrinet 提交于
 
- 
- 06 10月, 2017 3 次提交
- 
- 
由 Kavya Srinet 提交于
- 
由 Kavya Srinet 提交于
- 
由 Kavya Srinet 提交于
 
- 
- 05 10月, 2017 2 次提交
- 
- 
由 Kavya Srinet 提交于
- 
由 Kavya Srinet 提交于
 
- 
- 29 9月, 2017 2 次提交
- 
- 
由 zhouxiao-coder 提交于
- 
由 Abhinav Arora 提交于
 
- 
- 15 9月, 2017 1 次提交
- 
- 
由 qijun 提交于
 
- 
- 14 9月, 2017 2 次提交
