- 16 11月, 2017 1 次提交
-
-
由 dzhwinter 提交于
* "fix accuracy kernel bug" * "relauch ci"
-
- 13 11月, 2017 1 次提交
-
-
由 Yang Yu 提交于
-
- 11 11月, 2017 2 次提交
-
-
由 dangqingqing 提交于
-
由 emailweixu 提交于
It caused by a bug of std::call_once described in https://stackoverflow.com/questions/41717579/stdcall-once-hangs-on-second-call-after-callable-threw-on-first-call. It is likely caused by a deeper bug of pthread_once, which is discussed in https://patchwork.ozlabs.org/patch/482350/
-
- 08 11月, 2017 2 次提交
-
-
由 Yang Yu 提交于
CompareOp can run on CPU even other operators are running on GPU, since opeatations like comparing control flags should be performed only on CPU
-
由 qingqing01 提交于
-
- 31 10月, 2017 1 次提交
-
-
由 QI JUN 提交于
* remove unused code * fix cmake file * fix build error
-
- 26 10月, 2017 1 次提交
-
-
由 Qiao Longfei 提交于
* init cudnn batch norm op * rename batch_norm_cudnn_op.cc batch_norm_op.cu * correct name style * add ExtractNCWHD, simplify code * fix ExtractNCWHD * use CUDNN_ENFORCE instead of PADDLE_ENFORCE
-
- 25 10月, 2017 1 次提交
-
-
由 Dong Zhihong 提交于
-
- 24 10月, 2017 2 次提交
- 18 10月, 2017 1 次提交
-
-
由 Markus Kliegl 提交于
* initial matmul operator Similar to np.matmul, but also has transpose_X and transpose_Y flags, and only supports tensors from rank 1 to 3 inclusive. For GPU, uses cublas?gemmStridedBatched. For CPU, uses cblas_?gemm_batch if available via MKL; otherwise a simple serial implementation that loops over the batch dimension is employed for now.
-
- 16 10月, 2017 1 次提交
-
-
由 Dong Zhihong 提交于
-
- 15 10月, 2017 1 次提交
-
-
由 Dong Zhihong 提交于
-
- 14 10月, 2017 1 次提交
-
-
由 Dong Zhihong 提交于
-
- 12 10月, 2017 1 次提交
-
-
由 武毅 提交于
* add cudnn_conv_op * WIP * update * update * fix grad check * use platform::memory * add support group for cudnn * update * follow comments * fix onlycpu build * update cuda define * follow comments * follow comments * merge with updates * fix compile error * follow comments * follow comments
-
- 10 10月, 2017 2 次提交
- 07 10月, 2017 1 次提交
-
-
由 qijun 提交于
-
- 05 10月, 2017 4 次提交
-
-
由 Yi Wang 提交于
-
由 qijun 提交于
-
由 Yi Wang 提交于
-
由 Yu Yang 提交于
By shell command ```bash sed -i 's#ifdef PADDLE_ONLY_CPU#ifndef PADDLE_WITH_GPU#g' `find ./paddle/ -name '*.h' -o -name '*.cc' -o -name '*.cpp' -o -name '*.c' -o -name '*.cu'` sed -i 's#ifndef PADDLE_ONLY_CPU#ifdef PADDLE_WITH_GPU#g' `find ./paddle/ -name '*.h' -o -name '*.cc' -o -name '*.cpp' -o -name '*.c' -o -name '*.cu'` ```
-
- 04 10月, 2017 2 次提交
- 03 10月, 2017 2 次提交
- 02 10月, 2017 1 次提交
-
-
由 dongzhihong 提交于
-
- 01 10月, 2017 1 次提交
-
-
由 Yu Yang 提交于
-
- 29 9月, 2017 3 次提交
- 28 9月, 2017 1 次提交
-
-
由 Yu Yang 提交于
-
- 26 9月, 2017 2 次提交
-
-
由 Qiao Longfei 提交于
* fix nv_library * fix symbol in gpu_info.h
-
由 Yu Yang 提交于
* If stat is an integer, bool value will implicit cast to int before pass to PADDLE_ENFORCE
-
- 23 9月, 2017 1 次提交
-
-
由 Yu Yang 提交于
* Since GPU is an async device by default. We should sync computation when Python invoke `run`. So Python can get the correct computation result
-
- 22 9月, 2017 1 次提交
-
-
由 chengduoZH 提交于
-
- 19 9月, 2017 3 次提交
-
-
由 dangqingqing 提交于
-
由 Yu Yang 提交于
Using DeviceContext, not Place to get stream
-