- 26 12月, 2017 1 次提交
 - 
- 
由 fengjiayi 提交于
 
 - 
 - 07 12月, 2017 1 次提交
 - 
- 
由 Abhinav Arora 提交于
 
 - 
 - 26 11月, 2017 1 次提交
 - 
- 
由 dzhwinter 提交于
* "add floor, ceil, round op" * "reuse zero gradient" * "fix divide zero" * "fix numpy floor error"
 
 - 
 - 14 11月, 2017 1 次提交
 - 
- 
由 Qiao Longfei 提交于
* init commit * change some dir name
 
 - 
 - 27 10月, 2017 1 次提交
 - 
- 
由 Yu Yang 提交于
* Simplize Gradient Check * Stash * Extract apply_backward_pass to backward.py Rename apply_backward_pass to append_backward_ops * Use graph API to check gradient * Fix ci * Fix CI * Fix backward for double precision * Stash * Fix CI * Fix ci * Ignore GRU test * Ignore xe op * Fix CI * Fix softmax with xe gradient The correct equation should be IG = OG * (d_softmax_with_xe()) * Fix typo * Fix merge error * Disable LRN
 
 - 
 - 24 10月, 2017 1 次提交
 - 
- 
由 Yang Yang(Tony) 提交于
Pass all forward op test
 
 - 
 - 13 10月, 2017 1 次提交
 - 
- 
由 Abhinav Arora 提交于
* Adding Hard Sigmoid Activation * Adding a comment for slope to be only positive * Fixing grammatical mistake in comment
 
 - 
 - 12 10月, 2017 1 次提交
 - 
- 
由 Abhinav Arora 提交于
* Adding thresholded_relu op * Adding test for thresholded relu op
 
 - 
 - 11 10月, 2017 3 次提交
 - 
- 
由 kexinzhao 提交于
* implementing softplus * small fix * small fix * small fix * small fix
 - 
由 kavyasrinet 提交于
* Implemented the hardShrink activation * Fixing the unit test
 - 
由 Siddharth Goyal 提交于
* Add numerically-stable logsigmoid activation * Add softshrink operator * Adjust relative tolerance for grad-check * Address review comments
 
 - 
 - 10 10月, 2017 1 次提交
 - 
- 
由 kavyasrinet 提交于
 
 - 
 - 06 10月, 2017 3 次提交
 - 
- 
由 Kavya Srinet 提交于
 - 
由 Kavya Srinet 提交于
 - 
由 Kavya Srinet 提交于
 
 - 
 - 05 10月, 2017 2 次提交
 - 
- 
由 Kavya Srinet 提交于
 - 
由 Kavya Srinet 提交于
 
 - 
 - 29 9月, 2017 2 次提交
 - 
- 
由 zhouxiao-coder 提交于
 - 
由 Abhinav Arora 提交于
 
 - 
 - 15 9月, 2017 1 次提交
 - 
- 
由 qijun 提交于
 
 - 
 - 14 9月, 2017 2 次提交