- 14 12月, 2017 1 次提交
-
-
由 dzhwinter 提交于
* "derived cudnnDevice context" * "leave remove cudnn handle from CUDADeviceContext" * "fix math function error"
-
- 12 12月, 2017 1 次提交
-
-
由 QI JUN 提交于
There are mainly following fixes: - take `DeviceContext` as the template parameter of math functors and OpKernel instead of `Place` - remove `eigen_device` interface in base class `DeviceContext` - remove `GetEigenDevice` interface in `ExecutionContext` and base class `DeviceContext` - remove unused `platform::EigenDeviceConverter` - rename `REGISTER_OP_GPU_KERNEL` to `REGISTER_OP_CUDA_KERNEL` - rename `USE_GPU_ONLY_OP` to `USE_CUDA_ONLY_OP`
-
- 07 12月, 2017 1 次提交
-
-
由 Yang Yu 提交于
-
- 08 11月, 2017 1 次提交
-
-
由 qingqing01 提交于
-
- 05 10月, 2017 2 次提交
-
-
由 Yi Wang 提交于
-
由 Yu Yang 提交于
By shell command ```bash sed -i 's#ifdef PADDLE_ONLY_CPU#ifndef PADDLE_WITH_GPU#g' `find ./paddle/ -name '*.h' -o -name '*.cc' -o -name '*.cpp' -o -name '*.c' -o -name '*.cu'` sed -i 's#ifndef PADDLE_ONLY_CPU#ifdef PADDLE_WITH_GPU#g' `find ./paddle/ -name '*.h' -o -name '*.cc' -o -name '*.cpp' -o -name '*.c' -o -name '*.cu'` ```
-
- 29 9月, 2017 1 次提交
-
-
由 qijun 提交于
-
- 23 9月, 2017 1 次提交
-
-
由 Yu Yang 提交于
* Since GPU is an async device by default. We should sync computation when Python invoke `run`. So Python can get the correct computation result
-
- 19 9月, 2017 1 次提交
-
-
由 Yu Yang 提交于
* Also use `const DeviceContext&` all the time, to prevent `const_cast` Fix #4169 Fix #3468 Fix #3475
-
- 14 9月, 2017 1 次提交
-
-
由 qijun 提交于
-
- 13 9月, 2017 1 次提交
-
-
由 qijun 提交于
-
- 22 8月, 2017 1 次提交
-
-
由 qijun 提交于
-
- 21 8月, 2017 3 次提交
- 15 8月, 2017 2 次提交
- 09 8月, 2017 1 次提交
-
-
由 dongzhihong 提交于
-
- 05 8月, 2017 1 次提交
-
-
由 Yi Wang 提交于
-
- 04 8月, 2017 1 次提交
-
-
由 liaogang 提交于
-
- 30 7月, 2017 1 次提交
-
-
由 dongzhihong 提交于
-
- 28 7月, 2017 1 次提交
-
-
由 qijun 提交于
-
- 27 7月, 2017 2 次提交
- 26 7月, 2017 1 次提交
-
-
由 dongzhihong 提交于
-
- 25 7月, 2017 2 次提交
-
-
由 liaogang 提交于
-
由 dongzhihong 提交于
-
- 17 7月, 2017 2 次提交
- 15 7月, 2017 2 次提交
- 12 7月, 2017 9 次提交