- 25 8月, 2018 1 次提交
-
-
由 dzhwinter 提交于
-
- 05 7月, 2018 1 次提交
-
-
由 dzhwinter 提交于
-
- 20 6月, 2018 1 次提交
-
-
由 tensor-tang 提交于
-
- 21 5月, 2018 1 次提交
-
-
由 Liu Yiqun 提交于
Add an interface to set the number of threads for math function, and set the default value to 1 for inference.
-
- 04 5月, 2018 1 次提交
-
-
由 Yu Yang 提交于
-
- 03 5月, 2018 1 次提交
-
-
由 Yu Yang 提交于
-
- 28 4月, 2018 1 次提交
-
-
由 Yu Yang 提交于
-
- 25 4月, 2018 1 次提交
-
-
由 Yu Yang 提交于
stride should be int64_t, not int
-
- 08 3月, 2018 1 次提交
-
-
由 Luo Tao 提交于
-
- 12 2月, 2018 1 次提交
-
-
由 qingqing01 提交于
-
- 10 2月, 2018 2 次提交
- 03 2月, 2018 1 次提交
-
-
由 chengduoZH 提交于
-
- 25 12月, 2017 1 次提交
-
-
由 Yancey1989 提交于
-
- 12 12月, 2017 2 次提交
-
-
由 QI JUN 提交于
There are mainly following fixes: - take `DeviceContext` as the template parameter of math functors and OpKernel instead of `Place` - remove `eigen_device` interface in base class `DeviceContext` - remove `GetEigenDevice` interface in `ExecutionContext` and base class `DeviceContext` - remove unused `platform::EigenDeviceConverter` - rename `REGISTER_OP_GPU_KERNEL` to `REGISTER_OP_CUDA_KERNEL` - rename `USE_GPU_ONLY_OP` to `USE_CUDA_ONLY_OP`
-
由 tensor-tang 提交于
-
- 27 11月, 2017 1 次提交
-
-
由 Yancey1989 提交于
-
- 26 11月, 2017 1 次提交
-
-
由 dzhwinter 提交于
* "make global tensor function independently" * "replace functor" * "fix inline template error" * "fix tensor array with CopyFrom" * "fix other case use CopyFrom" * "move the op interface hardly" * "fix operators" * "fix typo" * "delete dynamic recurrent rnn and fix gru_unit in debugmode" * "fix unique_ptr copy" * "fix cuda copy" * "fix namespace error" * "removed nccl python test" * "fix include error" * "fix typo" * fix copy util test
-
- 14 11月, 2017 1 次提交
-
-
由 dangqingqing 提交于
-
- 11 11月, 2017 1 次提交
-
-
由 dangqingqing 提交于
-
- 09 11月, 2017 1 次提交
-
-
由 Luo Tao 提交于
-
- 08 11月, 2017 1 次提交
-
-
由 Yu Yang 提交于
-
- 26 10月, 2017 1 次提交
-
-
由 dangqingqing 提交于
-
- 18 10月, 2017 1 次提交
-
-
由 Markus Kliegl 提交于
* initial matmul operator Similar to np.matmul, but also has transpose_X and transpose_Y flags, and only supports tensors from rank 1 to 3 inclusive. For GPU, uses cublas?gemmStridedBatched. For CPU, uses cblas_?gemm_batch if available via MKL; otherwise a simple serial implementation that loops over the batch dimension is employed for now.
-
- 16 10月, 2017 1 次提交
-
-
由 qijun 提交于
-
- 14 10月, 2017 2 次提交
- 29 9月, 2017 1 次提交
-
-
由 qijun 提交于
-
- 21 9月, 2017 1 次提交
-
-
由 guosheng 提交于
-
- 19 9月, 2017 1 次提交
-
- 22 8月, 2017 2 次提交
- 21 8月, 2017 3 次提交
- 19 8月, 2017 1 次提交
-
-
由 dongzhihong 提交于
-
- 14 8月, 2017 3 次提交
-
-
由 dongzhihong 提交于
-
由 qijun 提交于
-
由 qijun 提交于
-
- 10 8月, 2017 1 次提交
-
-
由 qijun 提交于
-