- 27 10月, 2017 1 次提交
-
-
由 Yu Yang 提交于
* Simplize Gradient Check * Stash * Extract apply_backward_pass to backward.py Rename apply_backward_pass to append_backward_ops * Use graph API to check gradient * Fix ci * Fix CI * Fix backward for double precision * Stash * Fix CI * Fix ci * Ignore GRU test * Ignore xe op * Fix CI * Fix softmax with xe gradient The correct equation should be IG = OG * (d_softmax_with_xe()) * Fix typo * Fix merge error * Disable LRN
-
- 24 10月, 2017 1 次提交
-
-
由 Yang Yang(Tony) 提交于
Pass all forward op test
-
- 13 10月, 2017 1 次提交
-
-
由 Abhinav Arora 提交于
* Adding Hard Sigmoid Activation * Adding a comment for slope to be only positive * Fixing grammatical mistake in comment
-
- 12 10月, 2017 1 次提交
-
-
由 Abhinav Arora 提交于
* Adding thresholded_relu op * Adding test for thresholded relu op
-
- 11 10月, 2017 3 次提交
-
-
由 kexinzhao 提交于
* implementing softplus * small fix * small fix * small fix * small fix
-
由 kavyasrinet 提交于
* Implemented the hardShrink activation * Fixing the unit test
-
由 Siddharth Goyal 提交于
* Add numerically-stable logsigmoid activation * Add softshrink operator * Adjust relative tolerance for grad-check * Address review comments
-
- 10 10月, 2017 1 次提交
-
-
由 kavyasrinet 提交于
-
- 06 10月, 2017 3 次提交
-
-
由 Kavya Srinet 提交于
-
由 Kavya Srinet 提交于
-
由 Kavya Srinet 提交于
-
- 05 10月, 2017 2 次提交
-
-
由 Kavya Srinet 提交于
-
由 Kavya Srinet 提交于
-
- 29 9月, 2017 2 次提交
-
-
由 zhouxiao-coder 提交于
-
由 Abhinav Arora 提交于
-
- 15 9月, 2017 1 次提交
-
-
由 qijun 提交于
-
- 14 9月, 2017 2 次提交