- 26 10月, 2017 1 次提交
- 
- 
由 dangqingqing 提交于
 
- 
- 18 10月, 2017 1 次提交
- 
- 
由 Markus Kliegl 提交于* initial matmul operator Similar to np.matmul, but also has transpose_X and transpose_Y flags, and only supports tensors from rank 1 to 3 inclusive. For GPU, uses cublas?gemmStridedBatched. For CPU, uses cblas_?gemm_batch if available via MKL; otherwise a simple serial implementation that loops over the batch dimension is employed for now. 
 
- 
- 16 10月, 2017 1 次提交
- 
- 
由 qijun 提交于
 
- 
- 14 10月, 2017 2 次提交
- 29 9月, 2017 1 次提交
- 
- 
由 qijun 提交于
 
- 
- 21 9月, 2017 1 次提交
- 
- 
由 guosheng 提交于
 
- 
- 19 9月, 2017 1 次提交
- 
- 
由 Yu Yang 提交于* Also use `const DeviceContext&` all the time, to prevent `const_cast` Fix #4169 Fix #3468 Fix #3475 
 
- 
- 22 8月, 2017 2 次提交
- 21 8月, 2017 3 次提交
- 19 8月, 2017 1 次提交
- 
- 
由 dongzhihong 提交于
 
- 
- 14 8月, 2017 3 次提交
- 
- 
由 dongzhihong 提交于
- 
由 qijun 提交于
- 
由 qijun 提交于
 
- 
- 10 8月, 2017 2 次提交
- 09 8月, 2017 1 次提交
- 
- 
由 qijun 提交于
 
- 
- 07 8月, 2017 1 次提交
- 
- 
由 qijun 提交于
 
- 
- 03 8月, 2017 2 次提交
