未验证 提交 ae778ef6 编写于 作者: Z zhongpu 提交者: GitHub

[cherry-pick] update install doc to release 1.6.1 (#1626)

上级 2036c5e1
......@@ -24,5 +24,6 @@ PaddlePaddle (PArallel Distributed Deep LEarning)是一个易用、高效、灵
:hidden:
quick_start_cn.rst
install/index_cn.rst
basics/index_cn.rst
programming_guide/programming_guide.md
......@@ -20,5 +20,6 @@ If you have been armed with certain level of deep learning knowledge, and it hap
.. toctree::
:hidden:
install/index_en.rst
basics/index_en.rst
programming_guide/programming_guide_en.md
......@@ -60,7 +60,7 @@
<td> pip </td>
<td> >=9.0.1 </td>
<td> </td>
<td> <code> apt install python-pip </code><code> yum install Python-pip </code> </td>
<td> <code> apt install python-pip </code><code> yum install python-pip </code> </td>
</tr>
<tr>
<td> numpy </td>
......@@ -109,7 +109,6 @@
</p>
***
<a name="Compile"></a>
</br></br>
## **编译选项表**
......@@ -202,14 +201,13 @@ PaddlePaddle可以使用cuDNN v5.1之后的任何一个版本来编译运行,
**编译选项的设置**
PaddePaddle通过编译时指定路径来实现引用各种BLAS/CUDA/cuDNN库。cmake编译时,首先在系统路径( `/usr/liby``/usr/local/lib` )中搜索这几个库,同时也会读取相关路径变量来进行搜索。 通过使用`-D`命令可以设置,例如:
PaddePaddle通过编译时指定路径来实现引用各种BLAS/CUDA/cuDNN库。cmake编译时,首先在系统路径( `/usr/lib``/usr/local/lib` )中搜索这几个库,同时也会读取相关路径变量来进行搜索。 通过使用`-D`命令可以设置,例如:
> `cmake .. -DWITH_GPU=ON -DWITH_TESTING=OFF -DCUDNN_ROOT=/opt/cudnnv5`
**注意**:这几个编译选项的设置,只在第一次cmake的时候有效。如果之后想要重新设置,推荐清理整个编译目录( rm -rf )后,再指定。
***
<a name="whls"></a>
</br></br>
## **安装包列表**
......@@ -224,16 +222,16 @@ PaddePaddle通过编译时指定路径来实现引用各种BLAS/CUDA/cuDNN库。
</thead>
<tbody>
<tr>
<td> paddlepaddle==[版本号] 例如 paddlepaddle==1.5.2 </td>
<td> paddlepaddle==[版本号] 例如 paddlepaddle==1.6.1 </td>
<td> 只支持CPU对应版本的PaddlePaddle,具体版本请参见<a href=https://pypi.org/project/paddlepaddle/#history>Pypi</a> </td>
</tr>
<tr>
<td> paddlepaddle-gpu==[版本号] 例如 paddlepaddle-gpu==1.5.2 </td>
<td> paddlepaddle-gpu==[版本号] 例如 paddlepaddle-gpu==1.6.1 </td>
<td> 默认安装支持CUDA 10.0和cuDNN 7的对应[版本号]的PaddlePaddle安装包 </td>
</tr>
<tr>
<td> paddlepaddle-gpu==[版本号].postXX 例如 paddlepaddle-gpu==1.5.2.post87 </td>
<td> 支持CUDA 8.0和cuDNN 7的对应PaddlePaddle版本的安装包</td>
<td> paddlepaddle-gpu==[版本号].postXX 例如 paddlepaddle-gpu==1.6.1.post97 </td>
<td> 支持CUDA 9.0和cuDNN 7的对应PaddlePaddle版本的安装包</td>
</tr>
</tbody>
</table>
......@@ -243,7 +241,6 @@ PaddePaddle通过编译时指定路径来实现引用各种BLAS/CUDA/cuDNN库。
> 其中`postXX` 对应的是CUDA和cuDNN的版本,`postXX`之前的数字代表Paddle的版本
需要注意的是,命令中<code> paddlepaddle-gpu </code> 在windows环境下,会默认安装支持CUDA 10.0和cuDNN 7的对应[版本号]的PaddlePaddle安装包
***
<a name="ciwhls-release"></a>
</br></br>
......@@ -265,170 +262,126 @@ PaddePaddle通过编译时指定路径来实现引用各种BLAS/CUDA/cuDNN库。
<tbody>
<tr>
<td> cpu-mkl </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-cpu-mkl/paddlepaddle-1.5.2-cp27-cp27mu-linux_x86_64.whl">
paddlepaddle-1.5.2-cp27-cp27mu-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-cpu-mkl/paddlepaddle-1.5.2-cp27-cp27m-linux_x86_64.whl">
paddlepaddle-1.5.2-cp27-cp27m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-cpu-mkl/paddlepaddle-1.5.2-cp35-cp35m-linux_x86_64.whl">
paddlepaddle-1.5.2-cp35-cp35m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-cpu-mkl/paddlepaddle-1.5.2-cp36-cp36m-linux_x86_64.whl">
paddlepaddle-1.5.2-cp36-cp36m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-cpu-mkl/paddlepaddle-1.5.2-cp37-cp37m-linux_x86_64.whl">
paddlepaddle-1.5.2-cp37-cp37m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-cpu-mkl/paddlepaddle-1.6.1-cp27-cp27mu-linux_x86_64.whl">
paddlepaddle-1.6.1-cp27-cp27mu-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-cpu-mkl/paddlepaddle-1.6.1-cp27-cp27m-linux_x86_64.whl">
paddlepaddle-1.6.1-cp27-cp27m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-cpu-mkl/paddlepaddle-1.6.1-cp35-cp35m-linux_x86_64.whl">
paddlepaddle-1.6.1-cp35-cp35m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-cpu-mkl/paddlepaddle-1.6.1-cp36-cp36m-linux_x86_64.whl">
paddlepaddle-1.6.1-cp36-cp36m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-cpu-mkl/paddlepaddle-1.6.1-cp37-cp37m-linux_x86_64.whl">
paddlepaddle-1.6.1-cp37-cp37m-linux_x86_64.whl</a></td>
</tr>
<tr>
<td> cpu-openblas </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-cpu-openblas/paddlepaddle-1.5.2-cp27-cp27mu-linux_x86_64.whl">
paddlepaddle-1.5.2-cp27-cp27mu-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-cpu-openblas/paddlepaddle-1.5.2-cp27-cp27m-linux_x86_64.whl"> paddlepaddle-1.5.2-cp27-cp27m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-cpu-openblas/paddlepaddle-1.5.2-cp35-cp35m-linux_x86_64.whl">
paddlepaddle-1.5.2-cp35-cp35m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-cpu-openblas/paddlepaddle-1.5.2-cp36-cp36m-linux_x86_64.whl">
paddlepaddle-1.5.2-cp36-cp36m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-cpu-openblas/paddlepaddle-1.5.2-cp37-cp37m-linux_x86_64.whl">
paddlepaddle-1.5.2-cp37-cp37m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-cpu-openblas/paddlepaddle-1.6.1-cp27-cp27mu-linux_x86_64.whl">
paddlepaddle-1.6.1-cp27-cp27mu-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-cpu-openblas/paddlepaddle-1.6.1-cp27-cp27m-linux_x86_64.whl"> paddlepaddle-1.6.1-cp27-cp27m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-cpu-openblas/paddlepaddle-1.6.1-cp35-cp35m-linux_x86_64.whl">
paddlepaddle-1.6.1-cp35-cp35m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-cpu-openblas/paddlepaddle-1.6.1-cp36-cp36m-linux_x86_64.whl">
paddlepaddle-1.6.1-cp36-cp36m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-cpu-openblas/paddlepaddle-1.6.1-cp37-cp37m-linux_x86_64.whl">
paddlepaddle-1.6.1-cp37-cp37m-linux_x86_64.whl</a></td>
</tr>
<tr>
<td> cuda8-cudnn7-openblas </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda8-cudnn7-openblas/paddlepaddle_gpu-1.5.2-cp27-cp27mu-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp27-cp27mu-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda8-cudnn7-openblas/paddlepaddle_gpu-1.5.2-cp27-cp27m-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp27-cp27m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda8-cudnn7-openblas/paddlepaddle_gpu-1.5.2-cp35-cp35m-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp35-cp35m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda8-cudnn7-openblas/paddlepaddle_gpu-1.5.2-cp36-cp36m-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp36-cp36m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda8-cudnn7-openblas/paddlepaddle_gpu-1.5.2-cp37-cp37m-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp37-cp37m-linux_x86_64.whl</a></td>
</tr>
<tr>
<td> cuda8-cudnn7-mkl </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda8-cudnn7-mkl/paddlepaddle_gpu-1.5.2.post87-cp27-cp27mu-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp27-cp27mu-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda8-cudnn7-mkl/paddlepaddle_gpu-1.5.2.post87-cp27-cp27m-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp27-cp27m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda8-cudnn7-mkl/paddlepaddle_gpu-1.5.2.post87-cp35-cp35m-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp35-cp35m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda8-cudnn7-mkl/paddlepaddle_gpu-1.5.2.post87-cp36-cp36m-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp36-cp36m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda8-cudnn7-mkl/paddlepaddle_gpu-1.5.2.post87-cp37-cp37m-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp37-cp37m-linux_x86_64.whl</a></td>
<td> cuda9-cudnn7-avx-openblas </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-gpu-cuda9-cudnn7-avx-openblas/paddlepaddle_gpu-1.6.1-cp27-cp27mu-linux_x86_64.whl"> paddlepaddle_gpu-1.6.1-cp27-cp27mu-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-gpu-cuda9-cudnn7-avx-openblas/paddlepaddle_gpu-1.6.1-cp27-cp27m-linux_x86_64.whl"> paddlepaddle_gpu-1.6.1-cp27-cp27m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-gpu-cuda9-cudnn7-avx-openblas/paddlepaddle_gpu-1.6.1-cp35-cp35m-linux_x86_64.whl"> paddlepaddle_gpu-1.6.1-cp35-cp35m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-gpu-cuda9-cudnn7-avx-openblas/paddlepaddle_gpu-1.6.1-cp36-cp36m-linux_x86_64.whl"> paddlepaddle_gpu-1.6.1-cp36-cp36m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-gpu-cuda9-cudnn7-avx-openblas/paddlepaddle_gpu-1.6.1-cp37-cp37m-linux_x86_64.whl"> paddlepaddle_gpu-1.6.1-cp37-cp37m-linux_x86_64.whl</a></td>
</tr>
<tr>
<td> cuda9-cudnn7-mkl </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda9-cudnn7-mkl/paddlepaddle_gpu-1.5.2.post97-cp27-cp27mu-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp27-cp27mu-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda9-cudnn7-mkl/paddlepaddle_gpu-1.5.2.post97-cp27-cp27m-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp27-cp27m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda9-cudnn7-mkl/paddlepaddle_gpu-1.5.2.post97-cp35-cp35m-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp35-cp35m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda9-cudnn7-mkl/paddlepaddle_gpu-1.5.2.post97-cp36-cp36m-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp36-cp36m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda9-cudnn7-mkl/paddlepaddle_gpu-1.5.2.post97-cp37-cp37m-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp37-cp37m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-gpu-cuda9-cudnn7-mkl/paddlepaddle_gpu-1.6.1.post97-cp27-cp27mu-linux_x86_64.whl"> paddlepaddle_gpu-1.6.1-cp27-cp27mu-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-gpu-cuda9-cudnn7-mkl/paddlepaddle_gpu-1.6.1.post97-cp27-cp27m-linux_x86_64.whl"> paddlepaddle_gpu-1.6.1-cp27-cp27m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-gpu-cuda9-cudnn7-mkl/paddlepaddle_gpu-1.6.1.post97-cp35-cp35m-linux_x86_64.whl"> paddlepaddle_gpu-1.6.1-cp35-cp35m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-gpu-cuda9-cudnn7-mkl/paddlepaddle_gpu-1.6.1.post97-cp36-cp36m-linux_x86_64.whl"> paddlepaddle_gpu-1.6.1-cp36-cp36m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-gpu-cuda9-cudnn7-mkl/paddlepaddle_gpu-1.6.1.post97-cp37-cp37m-linux_x86_64.whl"> paddlepaddle_gpu-1.6.1-cp37-cp37m-linux_x86_64.whl</a></td>
</tr>
<tr>
<td> cuda10_cudnn7-mkl </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda10-cudnn7-mkl/paddlepaddle_gpu-1.5.2.post107-cp27-cp27mu-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp27-cp27mu-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda10-cudnn7-mkl/paddlepaddle_gpu-1.5.2.post107-cp27-cp27m-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp27-cp27m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda10-cudnn7-mkl/paddlepaddle_gpu-1.5.2.post107-cp35-cp35m-linux_x86_64.whl"> paddlepaddle_gpu-1.5.2-cp35-cp35m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda10-cudnn7-mkl/paddlepaddle_gpu-1.5.2.post107-cp36-cp36m-linux_x86_64.whl">
paddlepaddle_gpu-1.5.2-cp36-cp36m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-gpu-cuda10-cudnn7-mkl/paddlepaddle_gpu-1.5.2.post107-cp37-cp37m-linux_x86_64.whl">
paddlepaddle_gpu-1.5.2-cp37-cp37m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-gpu-cuda10-cudnn7-mkl/paddlepaddle_gpu-1.6.1.post107-cp27-cp27mu-linux_x86_64.whl"> paddlepaddle_gpu-1.6.1-cp27-cp27mu-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-gpu-cuda10-cudnn7-mkl/paddlepaddle_gpu-1.6.1.post107-cp27-cp27m-linux_x86_64.whl"> paddlepaddle_gpu-1.6.1-cp27-cp27m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-gpu-cuda10-cudnn7-mkl/paddlepaddle_gpu-1.6.1.post107-cp35-cp35m-linux_x86_64.whl"> paddlepaddle_gpu-1.6.1-cp35-cp35m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-gpu-cuda10-cudnn7-mkl/paddlepaddle_gpu-1.6.1.post107-cp36-cp36m-linux_x86_64.whl">
paddlepaddle_gpu-1.6.1-cp36-cp36m-linux_x86_64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-gpu-cuda10-cudnn7-mkl/paddlepaddle_gpu-1.6.1.post107-cp37-cp37m-linux_x86_64.whl">
paddlepaddle_gpu-1.6.1-cp37-cp37m-linux_x86_64.whl</a></td>
</tr>
<tr>
<td> win_cpu_mkl </td>
<td> - </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle-1.5.2-cp27-cp27m-win_amd64.whl">
paddlepaddle-1.5.2-cp27-cp27m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle-1.5.2-cp35-cp35m-win_amd64.whl">
paddlepaddle-1.5.2-cp35-cp35m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle-1.5.2-cp36-cp36m-win_amd64.whl">
paddlepaddle-1.5.2-cp36-cp36m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle-1.5.2-cp37-cp37m-win_amd64.whl">
paddlepaddle-1.5.2-cp37-cp37m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-mkl/paddlepaddle-1.6.1-cp27-cp27m-win_amd64.whl">
paddlepaddle-1.6.1-cp27-cp27m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-mkl/paddlepaddle-1.6.1-cp35-cp35m-win_amd64.whl">
paddlepaddle-1.6.1-cp35-cp35m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-mkl/paddlepaddle-1.6.1-cp36-cp36m-win_amd64.whl">
paddlepaddle-1.6.1-cp36-cp36m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-mkl/paddlepaddle-1.6.1-cp37-cp37m-win_amd64.whl">
paddlepaddle-1.6.1-cp37-cp37m-win_amd64.whl</a></td>
</tr>
<tr>
<td> win_cuda8_cudnn7_mkl </td>
<td> - </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle_gpu-1.5.2.post87-cp27-cp27m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp27-cp27m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle_gpu-1.5.2.post87-cp35-cp35m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp35-cp35m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle_gpu-1.5.2.post87-cp36-cp36m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp36-cp36m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle_gpu-1.5.2.post87-cp37-cp37m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp37-cp37m-win_amd64.whl</a></td>
</tr>
<tr>
<td> win_cuda9_cudnn7_mkl </td>
<td> - </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle_gpu-1.5.2.post97-cp27-cp27m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp27-cp27m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle_gpu-1.5.2.post97-cp35-cp35m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp35-cp35m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle_gpu-1.5.2.post97-cp36-cp36m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp36-cp36m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle_gpu-1.5.2.post97-cp37-cp37m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp37-cp37m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-mkl/paddlepaddle_gpu-1.6.1.post97-cp27-cp27m-win_amd64.whl">
paddlepaddle_gpu-1.6.1-cp27-cp27m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-mkl/paddlepaddle_gpu-1.6.1.post97-cp35-cp35m-win_amd64.whl">
paddlepaddle_gpu-1.6.1-cp35-cp35m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-mkl/paddlepaddle_gpu-1.6.1.post97-cp36-cp36m-win_amd64.whl">
paddlepaddle_gpu-1.6.1-cp36-cp36m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-mkl/paddlepaddle_gpu-1.6.1.post97-cp37-cp37m-win_amd64.whl">
paddlepaddle_gpu-1.6.1-cp37-cp37m-win_amd64.whl</a></td>
</tr>
<tr>
<td> win_cuda10_cudnn7_mkl </td>
<td> - </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle_gpu-1.5.2.post107-cp27-cp27m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp27-cp27m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle_gpu-1.5.2.post107-cp35-cp35m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp35-cp35m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle_gpu-1.5.2.post107-cp36-cp36m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp36-cp36m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-mkl/paddlepaddle_gpu-1.5.2.post107-cp37-cp37m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp37-cp37m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-mkl/paddlepaddle_gpu-1.6.1.post107-cp27-cp27m-win_amd64.whl">
paddlepaddle_gpu-1.6.1-cp27-cp27m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-mkl/paddlepaddle_gpu-1.6.1.post107-cp35-cp35m-win_amd64.whl">
paddlepaddle_gpu-1.6.1-cp35-cp35m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-mkl/paddlepaddle_gpu-1.6.1.post107-cp36-cp36m-win_amd64.whl">
paddlepaddle_gpu-1.6.1-cp36-cp36m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-mkl/paddlepaddle_gpu-1.6.1.post107-cp37-cp37m-win_amd64.whl">
paddlepaddle_gpu-1.6.1-cp37-cp37m-win_amd64.whl</a></td>
</tr>
<tr>
<td> win_cpu_openblas </td>
<td> - </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle-1.5.2-cp27-cp27m-win_amd64.whl">
paddlepaddle-1.5.2-cp27-cp27m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle-1.5.2-cp35-cp35m-win_amd64.whl">
paddlepaddle-1.5.2-cp35-cp35m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle-1.5.2-cp36-cp36m-win_amd64.whl">
paddlepaddle-1.5.2-cp36-cp36m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle-1.5.2-cp37-cp37m-win_amd64.whl">
paddlepaddle-1.5.2-cp37-cp37m-win_amd64.whl</a></td>
</tr>
<tr>
<td> win_cuda8_cudnn7_openblas </td>
<td> - </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle_gpu-1.5.2.post87-cp27-cp27m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp27-cp27m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle_gpu-1.5.2.post87-cp35-cp35m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp35-cp35m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle_gpu-1.5.2.post87-cp36-cp36m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp36-cp36m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle_gpu-1.5.2.post87-cp37-cp37m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp37-cp37m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-open/paddlepaddle-1.6.1-cp27-cp27m-win_amd64.whl">
paddlepaddle-1.6.1-cp27-cp27m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-open/paddlepaddle-1.6.1-cp35-cp35m-win_amd64.whl">
paddlepaddle-1.6.1-cp35-cp35m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-open/paddlepaddle-1.6.1-cp36-cp36m-win_amd64.whl">
paddlepaddle-1.6.1-cp36-cp36m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-open/paddlepaddle-1.6.1-cp37-cp37m-win_amd64.whl">
paddlepaddle-1.6.1-cp37-cp37m-win_amd64.whl</a></td>
</tr>
<tr>
<td> win_cuda9_cudnn7_openblas </td>
<td> - </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle_gpu-1.5.2.post97-cp27-cp27m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp27-cp27m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle_gpu-1.5.2.post97-cp35-cp35m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp35-cp35m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle_gpu-1.5.2.post97-cp36-cp36m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp36-cp36m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle_gpu-1.5.2.post97-cp37-cp37m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp37-cp37m-win_amd64.whl</a></td>
</tr>
<tr>
<td> win_cuda10_cudnn7_openblas </td>
<td> - </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle_gpu-1.5.2.post107-cp27-cp27m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp27-cp27m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle_gpu-1.5.2.post107-cp35-cp35m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp35-cp35m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle_gpu-1.5.2.post107-cp36-cp36m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp36-cp36m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-win-open/paddlepaddle_gpu-1.5.2.post107-cp37-cp37m-win_amd64.whl">
paddlepaddle_gpu-1.5.2-cp37-cp37m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-open/paddlepaddle_gpu-1.6.1.post97-cp27-cp27m-win_amd64.whl">
paddlepaddle_gpu-1.6.1-cp27-cp27m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-open/paddlepaddle_gpu-1.6.1.post97-cp35-cp35m-win_amd64.whl">
paddlepaddle_gpu-1.6.1-cp35-cp35m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-open/paddlepaddle_gpu-1.6.1.post97-cp36-cp36m-win_amd64.whl">
paddlepaddle_gpu-1.6.1-cp36-cp36m-win_amd64.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1/win-open/paddlepaddle_gpu-1.6.1.post97-cp37-cp37m-win_amd64.whl">
paddlepaddle_gpu-1.6.1-cp37-cp37m-win_amd64.whl</a></td>
</tr>
<tr>
<td> mac_cpu </td>
<td> - </td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-cpu-mac/paddlepaddle-1.5.2-cp27-cp27m-macosx_10_6_intel.whl">
paddlepaddle-1.5.2-cp27-cp27m-macosx_10_6_intel.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-cpu-mac/paddlepaddle-1.5.2-cp35-cp35m-macosx_10_6_intel.whl">
paddlepaddle-1.5.2-cp35-cp35m-macosx_10_6_intel.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-cpu-mac/paddlepaddle-1.5.2-cp36-cp36m-macosx_10_6_intel.whl">
paddlepaddle-1.5.2-cp36-cp36m-macosx_10_6_intel.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.5.2-cpu-mac/paddlepaddle-1.5.2-cp37-cp37m-macosx_10_6_intel.whl">
paddlepaddle-1.5.2-cp37-cp37m-macosx_10_6_intel.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-cpu-mac/paddlepaddle-1.6.1-cp27-cp27m-macosx_10_6_intel.whl">
paddlepaddle-1.6.1-cp27-cp27m-macosx_10_6_intel.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-cpu-mac/paddlepaddle-1.6.1-cp35-cp35m-macosx_10_6_intel.whl">
paddlepaddle-1.6.1-cp35-cp35m-macosx_10_6_intel.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-cpu-mac/paddlepaddle-1.6.1-cp36-cp36m-macosx_10_6_intel.whl">
paddlepaddle-1.6.1-cp36-cp36m-macosx_10_6_intel.whl</a></td>
<td> <a href="https://paddle-wheel.bj.bcebos.com/1.6.1-cpu-mac/paddlepaddle-1.6.1-cp37-cp37m-macosx_10_6_intel.whl">
paddlepaddle-1.6.1-cp37-cp37m-macosx_10_6_intel.whl</a></td>
</tr>
</tbody>
</table>
......@@ -442,9 +395,7 @@ cpu-mkl: 支持CPU训练和预测,使用Intel mkl数学库
cpu-openblas: 支持CPU训练和预测,使用openblas数学库
cuda8-cudnn7-openblas: 支持GPU训练和预测,使用openblas数学库
cuda8_cudnn7_mkl: 支持GPU训练和预测,使用Intel mkl数学库
cuda9-cudnn7-openblas: 支持GPU训练和预测,使用openblas数学库
cuda9_cudnn7-mkl: 支持GPU训练和预测,使用Intel mkl数学库
......@@ -561,7 +512,6 @@ platform tag: 类似 'linux_x86_64', 'any'
## 在Docker中执行PaddlePaddle训练程序
***
假设您已经在当前目录(比如在/home/work)编写了一个PaddlePaddle的程序: `train.py` (可以参考
[PaddlePaddleBook](https://github.com/PaddlePaddle/book/blob/develop/01.fit_a_line/README.cn.md)
......@@ -586,7 +536,6 @@ platform tag: 类似 'linux_x86_64', 'any'
## 使用Docker启动PaddlePaddle Book教程
***
使用Docker可以快速在本地启动一个包含了PaddlePaddle官方Book教程的Jupyter Notebook,可以通过网页浏览。
PaddlePaddle Book是为用户和开发者制作的一个交互式的Jupyter Notebook。
......@@ -610,7 +559,6 @@ PaddlePaddle Book是为用户和开发者制作的一个交互式的Jupyter Note
</br></br>
## 使用Docker执行GPU训练
***
为了保证GPU驱动能够在镜像里面正常运行,我们推荐使用
[nvidia-docker](https://github.com/NVIDIA/nvidia-docker)来运行镜像。
......
......@@ -89,6 +89,8 @@
> -it 与宿主机保持交互状态,`hub.baidubce.com/paddlepaddle/paddle:latest-dev` 使用名为`hub.baidubce.com/paddlepaddle/paddle:latest-dev`的镜像创建Docker容器,/bin/bash 进入容器后启动/bin/bash命令。
> 注意:hub.baidubce.com/paddlepaddle/paddle:latest-dev内部安装CUDA 8.0。
4. 进入Docker后进入paddle目录下:
......
......@@ -2,9 +2,9 @@
## 环境准备
* *MacOS 版本 10.11/10.12/10.13/10.14 (64 bit) (不支持GPU版本)*
* *Python 版本 2.7.15+/3.5.1+/3.6/3.7 (64 bit)*
* *pip 或 pip3 版本 9.0.1+ (64 bit)*
* **MacOS 版本 10.11/10.12/10.13/10.14 (64 bit) (不支持GPU版本)**
* **Python 版本 2.7.15+/3.5.1+/3.6/3.7 (64 bit)**
* **pip 或 pip3 版本 9.0.1+ (64 bit)**
## 选择CPU/GPU
......@@ -17,7 +17,7 @@
* 本机源码编译
<a name="mac_docker"></a>
### ***使用Docker编译***
### **使用Docker编译**
[Docker](https://docs.docker.com/install/)是一个开源的应用容器引擎。使用Docker,既可以将PaddlePaddle的安装&使用与系统环境隔离,也可以与主机共享GPU、网络等资源
......@@ -106,7 +106,7 @@
<a name="mac_source"></a>
<br/><br/>
### ***本机编译***
### **本机编译**
**请严格按照以下指令顺序执行**
......@@ -202,15 +202,15 @@
恭喜,至此您已完成PaddlePaddle的编译安装
## ***验证安装***
## **验证安装**
安装完成后您可以使用 `python``python3` 进入python解释器,输入`import paddle.fluid as fluid` ,再输入
`fluid.install_check.run_check()`
如果出现`Your Paddle Fluid is installed succesfully!`,说明您已成功安装。
## ***如何卸载***
## **如何卸载**
请使用以下命令卸载PaddlePaddle
* ***CPU版本的PaddlePaddle***: `pip uninstall paddlepaddle``pip3 uninstall paddlepaddle`
* **CPU版本的PaddlePaddle**: `pip uninstall paddlepaddle``pip3 uninstall paddlepaddle`
使用Docker安装PaddlePaddle的用户,请进入包含PaddlePaddle的容器中使用上述命令,注意使用对应版本的pip
......@@ -2,22 +2,22 @@
## 环境准备
* *Ubuntu 版本 (64 bit)*
* *Ubuntu 14.04 (GPU 版本支持 CUDA 8/10.0)*
* *Ubuntu 16.04 (GPU 版本支持 CUDA 8/9/10.0)*
* *Ubuntu 18.04 (GPU 版本支持 CUDA 10.0)*
* *Python 版本 2.7.15+/3.5.1+/3.6/3.7 (64 bit)*
* *pip或pip3 版本 9.0.1+ (64 bit)*
* **Ubuntu 版本 (64 bit)**
* **Ubuntu 14.04 (GPU 版本支持 CUDA 8/10.0)**
* **Ubuntu 16.04 (GPU 版本支持 CUDA 8/9/10.0)**
* **Ubuntu 18.04 (GPU 版本支持 CUDA 10.0)**
* **Python 版本 2.7.15+/3.5.1+/3.6/3.7 (64 bit)**
* **pip或pip3 版本 9.0.1+ (64 bit)**
## 选择CPU/GPU
* 如果您的计算机没有 NVIDIA® GPU,请安装CPU版的PaddlePaddle
* 如果您的计算机有 NVIDIA® GPU,并且满足以下条件,推荐安装GPU版的PaddlePaddle
* *CUDA 工具包10.0配合cuDNN v7.3+(如需多卡支持,需配合NCCL2.3.7及更高)*
* *CUDA 工具包9.0配合cuDNN v7.3+(如需多卡支持,需配合NCCL2.3.7及更高)*
* *CUDA 工具包8.0配合cuDNN v7.1+(如需多卡支持,需配合NCCL2.1.15-2.2.13)*
* *GPU运算能力超过1.0的硬件设备*
* **CUDA 工具包10.0配合cuDNN v7.3+(如需多卡支持,需配合NCCL2.3.7及更高)**
* **CUDA 工具包9.0配合cuDNN v7.3+(如需多卡支持,需配合NCCL2.3.7及更高)**
* **CUDA 工具包8.0配合cuDNN v7.1+(如需多卡支持,需配合NCCL2.1.15-2.2.13)**
* **GPU运算能力超过1.0的硬件设备**
您可参考NVIDIA官方文档了解CUDA和CUDNN的安装流程和配置方法,请见[CUDA](https://docs.nvidia.com/cuda/cuda-installation-guide-linux/),[cuDNN](https://docs.nvidia.com/deeplearning/sdk/cudnn-install/)
......@@ -36,7 +36,7 @@
* 本机编译
<a name="ubt_docker"></a>
### ***用Docker编译***
### **用Docker编译**
[Docker](https://docs.docker.com/install/)是一个开源的应用容器引擎。使用Docker,既可以将PaddlePaddle的安装&使用与系统环境隔离,也可以与主机共享GPU、网络等资源
......@@ -84,6 +84,9 @@
> -it 与宿主机保持交互状态,`hub.baidubce.com/paddlepaddle/paddle:latest-dev` 使用名为`hub.baidubce.com/paddlepaddle/paddle:latest-dev`的镜像创建Docker容器,/bin/bash 进入容器后启动/bin/bash命令。
> 注意:hub.baidubce.com/paddlepaddle/paddle:latest-dev内部安装CUDA 8.0。
4. 进入Docker后进入paddle目录下:
......@@ -152,7 +155,7 @@
> 注:PaddlePaddle Docker镜像为了减小体积,默认没有安装`vim`,您可以在容器中执行 `apt-get install -y vim` 来安装。
<a name="ubt_source"></a>
### ***本机编译***
### **本机编译**
1. 检查您的计算机和操作系统是否符合我们支持的编译标准: `uname -m && cat /etc/*release`
......@@ -220,7 +223,7 @@
For Python2: cmake .. -DWITH_GPU=OFF -DWITH_TESTING=OFF -DCMAKE_BUILD_TYPE=Release
For Python3: cmake .. -DPY_VERSION=3.5 -DWITH_GPU=OFF -DWITH_TESTING=OFF -DCMAKE_BUILD_TYPE=Release
* 对于需要编译**GPU版本PaddlePaddle**的用户:(*仅支持ubuntu16.04/14.04*)
* 对于需要编译**GPU版本PaddlePaddle**的用户:(**仅支持ubuntu16.04/14.04**)
1. 请确保您已经正确安装nccl2,或者按照以下指令安装nccl2(这里提供的是ubuntu 16.04,CUDA9,cuDNN7下nccl2的安装指令),更多版本的安装信息请参考NVIDIA[官方网站](https://developer.nvidia.com/nccl):
......@@ -251,17 +254,17 @@
恭喜,至此您已完成PaddlePaddle的编译安装
## ***验证安装***
## **验证安装**
安装完成后您可以使用 `python``python3` 进入python解释器,输入`import paddle.fluid as fluid` ,再输入
`fluid.install_check.run_check()`
如果出现`Your Paddle Fluid is installed succesfully!`,说明您已成功安装。
## ***如何卸载***
## **如何卸载**
请使用以下命令卸载PaddlePaddle:
* ***CPU版本的PaddlePaddle***: `pip uninstall paddlepaddle``pip3 uninstall paddlepaddle`
* **CPU版本的PaddlePaddle**: `pip uninstall paddlepaddle``pip3 uninstall paddlepaddle`
* ***GPU版本的PaddlePaddle***: `pip uninstall paddlepaddle-gpu``pip3 uninstall paddlepaddle-gpu`
* **GPU版本的PaddlePaddle**: `pip uninstall paddlepaddle-gpu``pip3 uninstall paddlepaddle-gpu`
使用Docker安装PaddlePaddle的用户,请进入包含PaddlePaddle的容器中使用上述命令,注意使用对应版本的pip
......@@ -2,18 +2,18 @@
## 环境准备
* *Windows 7/8/10 专业版/企业版 (64bit) (GPU版本支持CUDA 8.0/9.0/10.0, 且仅支持单卡)*
* *Python 版本 2.7/3.5.1+/3.6/3.7 (64 bit)*
* *pip 或 pip3 版本 9.0.1+ (64 bit)*
* *Visual Studio 2015 Update3*
* **Windows 7/8/10 专业版/企业版 (64bit) (GPU版本支持CUDA 9.0/10.0, 且仅支持单卡)**
* **Python 版本 2.7/3.5.1+/3.6/3.7 (64 bit)**
* **pip 或 pip3 版本 9.0.1+ (64 bit)**
* **Visual Studio 2015 Update3**
## 选择CPU/GPU
* 如果您的计算机没有 NVIDIA® GPU,请编译CPU版的PaddlePaddle
* 如果您的计算机有NVIDIA® GPU,并且满足以下条件,推荐编译GPU版的PaddlePaddle
* *CUDA 工具包8.0配合cuDNN v7.1+, 9.0/10.0配合cuDNN v7.3+*
* *GPU运算能力超过1.0的硬件设备*
* **CUDA 工具包9.0/10.0配合cuDNN v7.3+**
* **GPU运算能力超过1.0的硬件设备**
## 安装步骤
......@@ -22,79 +22,77 @@
* 本机编译(暂不支持NCCL,分布式等相关功能)
<a name="win_source"></a>
### ***本机编译***
### **本机编译**
1. 安装必要的工具 cmake,git 以及 python:
> cmake 需要3.5 及以上版本, 可在官网[下载](https://cmake.org/download/),并添加到环境变量中。
> cmake 需要 3.5 及以上版本, 可在官网[下载](https://cmake.org/download/),并添加到环境变量中。
> python 需要2.7 及以上版本, 可在官网[下载](https://www.python.org/download/releases/2.7/)。
> python 需要 2.7 及以上版本, 可在官网[下载](https://www.python.org/download/releases/2.7/)。
> 需要安装`numpy, protobuf, wheel` 。python2.7下, 请使用`pip`命令; 如果是python3.x, 请使用`pip3`命令。
* 安装 numpy 包可以通过命令 `pip install numpy` 或 `pip3 install numpy`
* 安装 protobuf 包可以通过命令 `pip install protobuf` 或 `pip3 install protobuf`
* 安装 wheel 包可以通过命令 `pip install wheel` 或 `pip3 install wheel`
* 安装 numpy 包可以通过命令 `pip install numpy` 或 `pip3 install numpy`
* 安装 protobuf 包可以通过命令 `pip install protobuf` 或 `pip3 install protobuf`
* 安装 wheel 包可以通过命令 `pip install wheel` 或 `pip3 install wheel`
> git可以在官网[下载](https://gitforwindows.org/),并添加到环境变量中。
2. 将PaddlePaddle的源码clone在当下目录下的Paddle的文件夹中,并进入Padde目录下:
- `git clone https://github.com/PaddlePaddle/Paddle.git`
- `cd Paddle`
- `git clone https://github.com/PaddlePaddle/Paddle.git`
- `cd Paddle`
3. 切换到较稳定release分支下进行编译:
`git checkout [分支名]`
`git checkout [分支名]`
例如:
例如:
`git checkout release/1.5`
`git checkout release/1.5`
注意:python3.6、python3.7版本从release/1.2分支开始支持
注意:python3.6、python3.7版本从release/1.2分支开始支持
4. 创建名为build的目录并进入:
- `mkdir build`
- `cd build`
- `mkdir build`
- `cd build`
5. 执行cmake:
> 具体编译选项含义请参见[编译选项表](../Tables.html/#Compile)
> 具体编译选项含义请参见[编译选项表](../Tables.html/#Compile)
* 编译**CPU版本PaddlePaddle**:
* 编译**CPU版本PaddlePaddle**:
`cmake .. -G "Visual Studio 14 2015 Win64" -DWITH_GPU=OFF -DWITH_TESTING=OFF -DCMAKE_BUILD_TYPE=Release`
`cmake .. -G "Visual Studio 14 2015 Win64" -DWITH_GPU=OFF -DWITH_TESTING=OFF -DCMAKE_BUILD_TYPE=Release`
* 编译**GPU版本PaddlePaddle**:
* 编译**GPU版本PaddlePaddle**:
`cmake .. -G "Visual Studio 14 2015 Win64" -DWITH_GPU=ON -DWITH_TESTING=OFF -DCMAKE_BUILD_TYPE=Release`
`cmake .. -G "Visual Studio 14 2015 Win64" -DWITH_GPU=ON -DWITH_TESTING=OFF -DCMAKE_BUILD_TYPE=Release`
默认为Python2,Python3请添加:
默认为Python2,Python3请添加:
> -DPY_VERSION=3(或3.5、3.6、3.7)
> -DPY_VERSION=3(或3.5、3.6、3.7)
如果你的设备信息包含多个Python或CUDA版本,你也可以通过设置路径变量,来指定特定版本的Python或CUDA:
如果你的设备信息包含多个Python或CUDA版本,你也可以通过设置路径变量,来指定特定版本的Python或CUDA:
> -DPYTHON_EXECUTABLE 为python的可执行程序(python.exe)的路径
> -DPYTHON_EXECUTABLE 为python的可执行程序(python.exe)的路径
> -DCUDA_TOOLKIT_ROOT_DIR 为cuda安装目录的根路径
> -DCUDA_TOOLKIT_ROOT_DIR 为cuda安装目录的根路径
例如:(仅作示例,请根据你的设备路径信息进行设置)
例如:(仅作示例,请根据你的设备路径信息进行设置)
`cmake .. -G "Visual Studio 14 2015 Win64" -DCMAKE_BUILD_TYPE=Release -DWITH_GPU=ON -DWITH_TESTING=OFF -DPYTHON_EXECUTABLE=C:\\Python36\\python.exe -DCUDA_TOOLKIT_ROOT_DIR="C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\v10.0"`
`cmake .. -G "Visual Studio 14 2015 Win64" -DCMAKE_BUILD_TYPE=Release -DWITH_GPU=ON -DWITH_TESTING=OFF -DPYTHON_EXECUTABLE=C:\\Python36\\python.exe -DCUDA_TOOLKIT_ROOT_DIR="C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\v10.0"`
6. 使用Blend for Visual Studio 2015 打开 `paddle.sln` 文件,选择平台为 `x64`,配置为 `Release`,开始编译。
7. 编译成功后进入 `\Paddle\build\python\dist` 目录下找到生成的 `.whl` 包:
`cd \Paddle\build\python\dist`
`cd \Paddle\build\python\dist`
8. 在当前机器或目标机器安装编译好的 `.whl` 包:
`pip install -U(whl包的名字)` 或 `pip3 install -U(whl包的名字)`
`pip install -U(whl包的名字)` 或 `pip3 install -U(whl包的名字)`
恭喜,至此您已完成PaddlePaddle的编译安装
......
......@@ -7,74 +7,59 @@
============================
* Windows 7 / 8 / 10,专业版 / 企业版
* Ubuntu 14.04 / 16.04 / 18.04
* CentOS 6 / 7
* MacOS 10.11 / 10.12 / 10.13 / 10.14
* 操作系统要求是 64 位版本
2. 处理器要求
============================
* 处理器支持 MKL
* 处理器架构是x86_64(或称作 x64、Intel 64、AMD64)架构,目前PaddlePaddle不支持arm64架构
3. Python 和 pip 版本要求:
============================
* Python 2 的版本要求 2.7.15+
* Python 3 的版本要求 3.5.1+/3.6/3.7
* Python 具有 pip, 且 pip 的版本要求 9.0.1+
* Python 和 pip 要求是 64 位版本
4. PaddlePaddle 对 GPU 支持情况:
=================================
* 目前 `PaddlePaddle` 仅支持 `NVIDIA` 显卡的 `CUDA` 驱动
* 需要安装 `cuDNN <https://docs.nvidia.com/deeplearning/sdk/cudnn-install/>`_ ,版本要求 7.3+(For CUDA9/10), 7.1+(For CUDA 8)
* 目前 **PaddlePaddle** 仅支持 **NVIDIA** 显卡的 **CUDA** 驱动
* 需要安装 `cuDNN <https://docs.nvidia.com/deeplearning/sdk/cudnn-install/>`_ ,版本要求 7.3+(For CUDA9/10)
* 如果您需要 GPU 多卡模式,需要安装 `NCCL 2 <https://developer.nvidia.com/nccl/>`_
* 仅 Ubuntu/CentOS 支持 NCCL 2 技术
* 需要安装 `CUDA <https://docs.nvidia.com/cuda/cuda-installation-guide-windows/>`_ ,根据您系统不同,对 CUDA 版本要求不同:
* 需要安装 `CUDA <https://docs.nvidia.com/cuda/cuda-installation-guide-windows/>`_,根据您系统不同,对 CUDA 版本要求不同:
* Windows 安装 GPU 版本
* Windows 7/8/10 支持 CUDA 8.0/9.0/10.0 单卡模式,不支持 CUDA 9.1/9.2/10.1
* 不支持 `nvidia-docker` 方式安装
* Windows 7/8/10 支持 CUDA 9.0/10.0 单卡模式,不支持 CUDA 9.1/9.2/10.1
* 不支持 **nvidia-docker** 方式安装
* Ubuntu 安装 GPU 版本
* Ubuntu 14.04 支持 CUDA 8.0/10.0,不支持CUDA 9.0/9.1/9.2/10.1
* Ubuntu 16.04 支持 CUDA 8.0/9.0/9.1/9.2/10.0,不支持10.1
* Ubuntu 18.04 支持 CUDA 10.0,不支持CUDA 8.0/9.0/9.1/9.2/10.1
* 如果您是使用 `nvidia-docker` 安装,支持 CUDA 8.0/9.0/9.1/9.2/10.0,不支持10.1
* Ubuntu 14.04 支持 CUDA 10.0,不支持CUDA 9.0/9.1/9.2/10.1
* Ubuntu 16.04 支持 CUDA 9.0/9.1/9.2/10.0,不支持10.1
* Ubuntu 18.04 支持 CUDA 10.0,不支持CUDA 9.0/9.1/9.2/10.1
* 如果您是使用 **nvidia-docker** 安装,支持 CUDA 9.0/9.1/9.2/10.0,不支持10.1
* CentOS 安装 GPU 版本
* 如果您是使用本机 `pip` 安装:
* CentOS 7 支持 CUDA 9.0/9.2/10.0,不支持10.1,支持 CUDA 8.0/9.1 但仅支持单卡模式
* CentOS 6 支持 CUDA 8.0/9.0/9.1/9.2/10.0 单卡模式,不支持10.1
* 如果您是使用本机 **pip** 安装:
* CentOS 7 支持 CUDA 9.0/9.2/10.0,不支持10.1,支持 CUDA 9.1 但仅支持单卡模式
* CentOS 6 支持 CUDA 9.0/9.1/9.2/10.0 单卡模式,不支持10.1
* 如果您是使用本机源码编译安装:
* CentOS 7 支持 CUDA 9.0/9.2/10.0
* CentOS 7 支持 CUDA 9.0/9.2/10.0
* CentOS 6 不推荐,不提供编译出现问题时的官方支持
* 如果您是使用 `nvidia-docker` 安装,在CentOS 7 下支持 CUDA 8.0/9.0/9.1/9.2/10.0,不支持10.1
* 如果您是使用 **nvidia-docker** 安装,在CentOS 7 下支持 CUDA 9.0/9.1/9.2/10.0,不支持10.1
* MacOS 不支持:PaddlePaddle 在 MacOS 平台没有 GPU 支持
请确保您的环境满足以上条件。如您有其他需求,请参考 `多版本whl包安装列表 <Tables.html/#ciwhls>`_
请确保您的环境满足以上条件。如您有其他需求,请参考 `多版本whl包安装列表 <Tables.html/#ciwhls>`_ .
5. PaddlePaddle 对 NCCL 支持情况:
=================================
......@@ -82,36 +67,26 @@
* Windows 支持情况
* 不支持NCCL
* Ubuntu 支持情况
* Ubuntu 14.04:
* CUDA10.0 下支持NCCL v2.3.7-v2.4.8
* CUDA8.0 下支持NCCL v2.1.15-v2.2.13
* Ubuntu 16.04:
* CUDA10.0/9.2/9.0 下支持NCCL v2.3.7-v2.4.8
* CUDA10.0/9.2/9.0 下支持NCCL v2.3.7-v2.4.8
* CUDA9.1 下支持NCCL v2.1.15
* CUDA8.0 下支持NCCL v2.1.15-v2.2.13
* Ubuntu 18.04:
* CUDA10.0 下支持NCCL v2.3.7-v2.4.8
* CentOS 支持情况
* CentOS 6:不支持NCCL
* CentOS 7:
* CUDA10.0/9.2/9.0 下支持NCCL v2.3.7-v2.4.8
* MacOS 支持情况
* 不支持NCCL
第一种安装方式:使用 pip 安装
......@@ -119,7 +94,7 @@
您可以选择“使用pip安装”、“使用conda安装”、“使用docker安装”、“从源码编译安装” 四种方式中的任意一种方式进行安装。
本节将介绍使用 `pip` 的安装方式。
本节将介绍使用 pip 的安装方式。
1. 需要您确认您的 操作系统 满足上方列出的要求
......@@ -195,7 +170,7 @@
7. 如果您希望使用 `pip <https://pypi.org/project/pip/>`_ 进行安装PaddlePaddle可以直接使用以下命令:
(1). **CPU版本**:如果您只是想安装CPU版本请参考如下命令安装(使用清华源)
(1). **CPU版本** :如果您只是想安装CPU版本请参考如下命令安装(使用清华源)
如果您是使用 Python 2,安装CPU版本的命令为:
::
......@@ -207,9 +182,10 @@
python3 -m pip install paddlepaddle -i https://pypi.tuna.tsinghua.edu.cn/simple
(2). **GPU版本**:如果您想使用GPU版本请参考如下命令安装(使用清华源)
(2). **GPU版本** :如果您想使用GPU版本请参考如下命令安装(使用清华源)
注意:
* 需要您确认您的 GPU 满足上方列出的要求
如果您是使用 Python2,请注意用以下指令安装的PaddlePaddle在Windows、Ubuntu、CentOS下默认支持CUDA10.0:
......@@ -217,22 +193,17 @@
python -m pip install paddlepaddle-gpu -i https://pypi.tuna.tsinghua.edu.cn/simple
如果您是使用 Python 2,CUDA 8,cuDNN 7.1+,安装GPU版本的命令为:
::
python -m pip install paddlepaddle-gpu==1.5.2.post87 -i https://pypi.tuna.tsinghua.edu.cn/simple
如果您是使用 Python 2,CUDA 9,cuDNN 7.3+,安装GPU版本的命令为:
::
python -m pip install paddlepaddle-gpu==1.5.2.post97 -i https://pypi.tuna.tsinghua.edu.cn/simple
python -m pip install paddlepaddle-gpu==1.6.1.post97 -i https://pypi.tuna.tsinghua.edu.cn/simple
如果您是使用 Python 2,CUDA 10.0,cuDNN 7.3+,安装GPU版本的命令为:
::
python -m pip install paddlepaddle-gpu==1.5.2.post107 -i https://pypi.tuna.tsinghua.edu.cn/simple
python -m pip install paddlepaddle-gpu==1.6.1.post107 -i https://pypi.tuna.tsinghua.edu.cn/simple
如果您是使用 Python 3,请将上述命令中的 `python` 更换为 `python3` 进行安装。
如果您是使用 Python 3,请将上述命令中的 **python** 更换为 **python3** 进行安装。
8. 验证安装
......@@ -241,6 +212,7 @@
如果出现 Your Paddle Fluid is installed succesfully!,说明您已成功安装。
9. 更多帮助信息请参考:
`Ubuntu下安装 <install_Ubuntu.html>`_
`CentOS下安装 <install_CentOS.html>`_
......@@ -255,7 +227,7 @@
您可以选择“使用pip安装”、“使用conda安装”、“使用docker安装”、“从源码编译安装” 四种方式中的任意一种方式进行安装。
本节将介绍使用 `conda` 的安装方式。
本节将介绍使用 conda 的安装方式。
1. 需要您确认您的 操作系统 满足上方列出的要求
......@@ -370,16 +342,17 @@
9. 如果您希望使用 conda 进行安装PaddlePaddle可以直接使用以下命令:
(1). **CPU版本**:如果您只是想安装CPU版本请参考如下命令安装
(1). **CPU版本** :如果您只是想安装CPU版本请参考如下命令安装
::
conda install paddlepaddle
(2). **GPU版本**:如果您想使用GPU版本请参考如下命令安装
(2). **GPU版本** :如果您想使用GPU版本请参考如下命令安装
注意:
* 需要您确认您的 GPU 满足上方列出的要求
如果您是使用 CUDA 8,cuDNN 7.1+,安装GPU版本的命令为:
......@@ -405,6 +378,7 @@
如果出现 Your Paddle Fluid is installed succesfully!,说明您已成功安装。
11. 更多帮助信息请参考:
`conda下安装 <install_Conda.html>`_
......@@ -413,7 +387,7 @@
您可以选择“使用pip安装”、“使用conda安装”、“使用docker安装”、“从源码编译安装” 四种方式中的任意一种方式进行安装。
本节将介绍使用 `docker` 的安装方式。
本节将介绍使用 docker 的安装方式。
如果您希望使用 `docker <https://www.docker.com>`_ 安装PaddlePaddle,可以使用以下命令:
......@@ -422,19 +396,20 @@
(1). 首先需要安装 `docker <https://www.docker.com>`_
注意:
* CentOS 6 不支持 `docker` 方式安装
* CentOS 6 不支持 docker 方式安装
* 处理器需要支持 MKL
(2). 拉取预安装 PaddlePaddle 的镜像:
::
docker pull hub.baidubce.com/paddlepaddle/paddle:1.5.2
docker pull hub.baidubce.com/paddlepaddle/paddle:1.6.1
(3). 用镜像构建并进入Docker容器:
::
docker run --name paddle -it -v dir1:dir2 hub.baidubce.com/paddlepaddle/paddle:1.5.2 /bin/bash
docker run --name paddle -it -v dir1:dir2 hub.baidubce.com/paddlepaddle/paddle:1.6.1 /bin/bash
> --name [Name of container] 设定Docker的名称;
......@@ -442,38 +417,40 @@
> -v 参数用于宿主机与容器里文件共享;其中dir1为宿主机目录,dir2为挂载到容器内部的目录,用户可以通过设定dir1和dir2自定义自己的挂载目录;例如:$PWD:/paddle 指定将宿主机的当前路径(Linux中PWD变量会展开为当前路径的绝对路径)挂载到容器内部的 /paddle 目录;
> hub.baidubce.com/paddlepaddle/paddle:1.5.2 是需要使用的image名称;/bin/bash是在Docker中要执行的命令
> hub.baidubce.com/paddlepaddle/paddle:1.6.1 是需要使用的image名称;/bin/bash是在Docker中要执行的命令
2. **GPU 版本**
(1). 首先需要安装 `nvidia-docker <https://github.com/NVIDIA/nvidia-docker>`_
注意:
* 处理器需要支持 MKL
* 您的计算机需要具有支持 `CUDA` 驱动的 `NVIDIA` 显卡
* 您的计算机需要具有支持 CUDA 驱动的 NVIDIA 显卡
* 需要安装 `cuDNN <https://docs.nvidia.com/deeplearning/sdk/cudnn-install/>`_ ,版本要求 7.3+(For CUDA9/10), 7.1+(For CUDA 8)
* 如果您需要 GPU 多卡模式,需要安装 `NCCL 2 <https://developer.nvidia.com/nccl/>`_
* 仅 Ubuntu/CentOS 支持 NCCL 2 技术
* 需要安装 `CUDA <https://docs.nvidia.com/cuda/cuda-installation-guide-windows/>`_,根据您系统不同,对 CUDA 版本要求不同:
* 需要安装 `CUDA <https://docs.nvidia.com/cuda/cuda-installation-guide-windows/>`_ ,根据您系统不同,对 CUDA 版本要求不同:
* Ubuntu/CentOS 7 ,如果您是使用 `nvidia-docker` 安装,支持 CUDA 8.0/9.0/9.1/9.2/10.0
* Ubuntu/CentOS 7 ,如果您是使用 nvidia-docker 安装,支持 CUDA 8.0/9.0/9.1/9.2/10.0
* Windows/MacOS/CentOS 6 不支持 `nvidia-docker` 方式安装
* Windows/MacOS/CentOS 6 不支持 nvidia-docker 方式安装
(2). 拉取支持`CUDA 10.0`, `cuDNN 7.3+` 预安装 PaddlePaddle 的镜像:
(2). 拉取支持 CUDA 10.0 , cuDNN 7.3+ 预安装 PaddlePaddle 的镜像:
::
nvidia-docker pull hub.baidubce.com/paddlepaddle/paddle:1.5.2-gpu-cuda10.0-cudnn7
nvidia-docker pull hub.baidubce.com/paddlepaddle/paddle:1.6.1-gpu-cuda10.0-cudnn7
(3). 用镜像构建并进入Docker容器:
::
nvidia-docker run --name paddle -it -v dir1:dir2 hub.baidubce.com/paddlepaddle/paddle:1.5.2-gpu-cuda10.0-cudnn7 /bin/bash
nvidia-docker run --name paddle -it -v dir1:dir2 hub.baidubce.com/paddlepaddle/paddle:1.6.1-gpu-cuda10.0-cudnn7 /bin/bash
> --name [Name of container] 设定Docker的名称;
......@@ -481,14 +458,15 @@
> -v 参数用于宿主机与容器里文件共享;其中dir1为宿主机目录,dir2为挂载到容器内部的目录,用户可以通过设定dir1和dir2自定义自己的挂载目录;例如:$PWD:/paddle 指定将宿主机的当前路径(Linux中PWD变量会展开为当前路径的绝对路径)挂载到容器内部的 /paddle 目录;
> hub.baidubce.com/paddlepaddle/paddle:1.5.2-gpu-cuda10.0-cudnn7 是需要使用的image名称;/bin/bash是在Docker中要执行的命令
> hub.baidubce.com/paddlepaddle/paddle:1.6.1-gpu-cuda10.0-cudnn7 是需要使用的image名称;/bin/bash是在Docker中要执行的命令
或如果您需要支持 `CUDA 8` 或者 `CUDA 9` 的版本,将上述命令的 `cuda10.0` 替换成 `cuda8.0` 或者 `cuda9.0` 即可
或如果您需要支持 **CUDA 9** 的版本,将上述命令的 **cuda10.0** 替换成 **cuda9.0** 即可
3. 如果您的机器不在中国大陆地区,可以直接从DockerHub拉取镜像:
::
docker run --name paddle -it -v dir1:dir2 paddlepaddle/paddle:1.5.2 /bin/bash
docker run --name paddle -it -v dir1:dir2 paddlepaddle/paddle:1.6.1 /bin/bash
> --name [Name of container] 设定Docker的名称;
......@@ -496,7 +474,7 @@
> -v 参数用于宿主机与容器里文件共享;其中dir1为宿主机目录,dir2为挂载到容器内部的目录,用户可以通过设定dir1和dir2自定义自己的挂载目录;例如:$PWD:/paddle 指定将宿主机的当前路径(Linux中PWD变量会展开为当前路径的绝对路径)挂载到容器内部的 /paddle 目录;
> paddlepaddle/paddle:1.5.2 是需要使用的image名称;/bin/bash是在Docker中要执行的命令
> paddlepaddle/paddle:1.6.1 是需要使用的image名称;/bin/bash是在Docker中要执行的命令
4. 验证安装
......@@ -504,12 +482,15 @@
如果出现 Your Paddle Fluid is installed succesfully!,说明您已成功安装。
5. 更多帮助信息请参考:`使用Docker安装 <install_Docker.html>`_。
5. 更多帮助信息请参考:
`使用Docker安装 <install_Docker.html>`_
第四种安装方式:使用源代码编译安装
====================================
- 如果您只是使用 `PaddlePaddle` ,建议从 `pip` 和 `conda` 、 `docker` 三种安装方式中选取一种进行安装即可。
- 如果您只是使用 PaddlePaddle ,建议从 **pip** 和 **conda** 、 **docker** 三种安装方式中选取一种进行安装即可。
- 如果您有开发PaddlePaddle的需求,请参考:`从源码编译 <compile/fromsource.html>`_
.. toctree::
......
......@@ -2,11 +2,11 @@
## 环境准备
* *CentOS 版本 (64 bit)*
* *CentOS 6 (GPU版本支持CUDA 8.0/9.0/9.1/9.2/10.0, 仅支持单卡)*
* *CentOS 7 (GPU版本支持CUDA 9.0/9.2/10.0, 其中CUDA 8.0/9.1仅支持单卡)*
* *Python 版本 2.7.15+/3.5.1+/3.6/3.7 (64 bit)*
* *pip 或 pip3 版本 9.0.1+ (64 bit)*
* **CentOS 版本 (64 bit)*
* **CentOS 6 (GPU版本支持CUDA 9.0/9.1/9.2/10.0, 仅支持单卡)**
* **CentOS 7 (GPU版本支持CUDA 9.2/10.0, 其中CUDA 9.1仅支持单卡)**
* **Python 版本 2.7.15+/3.5.1+/3.6/3.7 (64 bit)**
* **pip 或 pip3 版本 9.0.1+ (64 bit)**
### 注意事项
......@@ -64,10 +64,9 @@
* 如果您的计算机有NVIDIA® GPU,请确保满足以下条件并且安装GPU版PaddlePaddle
* *CUDA 工具包10.0配合cuDNN v7.3+(如需多卡支持,需配合NCCL2.3.7及更高)*
* *CUDA 工具包9.0配合cuDNN v7.3+(如需多卡支持,需配合NCCL2.3.7及更高)*
* *CUDA 工具包8.0配合cuDNN v7.1+(官方不支持多卡)*
* *GPU运算能力超过1.0的硬件设备*
* **CUDA 工具包10.0配合cuDNN v7.3+(如需多卡支持,需配合NCCL2.3.7及更高)**
* **CUDA 工具包9.0配合cuDNN v7.3+(如需多卡支持,需配合NCCL2.3.7及更高)**
* **GPU运算能力超过1.0的硬件设备**
您可参考NVIDIA官方文档了解CUDA和CUDNN的安装流程和配置方法,请见[CUDA](https://docs.nvidia.com/cuda/cuda-installation-guide-linux/),[cuDNN](https://docs.nvidia.com/deeplearning/sdk/cudnn-install/)
......@@ -110,15 +109,15 @@ CentOS系统下有5种安装方式:
* 默认下载最新稳定版的安装包,如需获取开发版安装包,请参考[这里](./Tables.html/#ciwhls)
<a name="check"></a>
## ***验证安装***
## **验证安装**
安装完成后您可以使用 `python``python3` 进入python解释器,输入`import paddle.fluid as fluid` ,再输入
`fluid.install_check.run_check()`
如果出现`Your Paddle Fluid is installed succesfully!`,说明您已成功安装。
## ***如何卸载***
## **如何卸载**
请使用以下命令卸载PaddlePaddle:
* ***CPU版本的PaddlePaddle***: `python -m pip uninstall paddlepaddle``python3 -m pip uninstall paddlepaddle`
* **CPU版本的PaddlePaddle**: `python -m pip uninstall paddlepaddle``python3 -m pip uninstall paddlepaddle`
* ***GPU版本的PaddlePaddle***: `python -m pip uninstall paddlepaddle-gpu``python3 -m pip uninstall paddlepaddle-gpu`
* **GPU版本的PaddlePaddle**: `python -m pip uninstall paddlepaddle-gpu``python3 -m pip uninstall paddlepaddle-gpu`
......@@ -80,10 +80,6 @@
(2). **GPU版本**:如果您想使用GPU版本请参考如下命令安装
如果您是使用 CUDA 8,cuDNN 7.1+,安装GPU版本的命令为:
conda install paddlepaddle-gpu cudatoolkit=8.0
如果您是使用 CUDA 9,cuDNN 7.3+,安装GPU版本的命令为:
conda install paddlepaddle-gpu cudatoolkit=9.0
......
......@@ -121,9 +121,9 @@
请您进入Docker容器后,执行如下命令
* ***CPU版本的PaddlePaddle***: `pip uninstall paddlepaddle`
* **CPU版本的PaddlePaddle**: `pip uninstall paddlepaddle`
* ***GPU版本的PaddlePaddle***: `pip uninstall paddlepaddle-gpu`
* **GPU版本的PaddlePaddle**: `pip uninstall paddlepaddle-gpu`
或通过`docker rm [Name of container]`来直接删除Docker容器
......@@ -2,9 +2,9 @@
## 环境准备
* *MacOS 版本 10.11/10.12/10.13/10.14 (64 bit) (不支持GPU版本)*
* *Python 版本 2.7.15+/3.5.1+/3.6/3.7 (64 bit)*
* *pip 或 pip3 版本 9.0.1+ (64 bit)*
* **MacOS 版本 10.11/10.12/10.13/10.14 (64 bit) (不支持GPU版本)**
* **Python 版本 2.7.15+/3.5.1+/3.6/3.7 (64 bit)**
* **pip 或 pip3 版本 9.0.1+ (64 bit)**
### 注意事项
......@@ -68,6 +68,7 @@ MacOS系统下有5种安装方式:
* [源码编译安装](./compile/compile_MacOS.html#mac_source)
* [Docker源码编译安装](./compile/compile_MacOS.html#mac_docker)
这里为您介绍pip安装方式
## 安装步骤
......
......@@ -2,12 +2,12 @@
## 环境准备
* *Ubuntu 版本 (64 bit)*
* *Ubuntu 14.04 (GPU 版本支持 CUDA 8.0/10.0)*
* *Ubuntu 16.04 (GPU 版本支持 CUDA 8.0/9.0/9.1/9.2/10.0)*
* *Ubuntu 18.04 (GPU 版本支持 CUDA 10.0)*
* *Python 版本 2.7.15+/3.5.1+/3.6/3.7 (64 bit)*
* *pip或pip3 版本 9.0.1+ (64 bit)*
* **Ubuntu 版本 (64 bit)**
* **Ubuntu 14.04 (GPU 版本支持 CUDA 10.0)**
* **Ubuntu 16.04 (GPU 版本支持 CUDA 9.0/9.1/9.2/10.0)**
* **Ubuntu 18.04 (GPU 版本支持 CUDA 10.0)**
* **Python 版本 2.7.15+/3.5.1+/3.6/3.7 (64 bit)**
* **pip或pip3 版本 9.0.1+ (64 bit)**
### 注意事项
......@@ -64,10 +64,9 @@
* 如果您的计算机没有 NVIDIA® GPU,请安装CPU版的PaddlePaddle
* 如果您的计算机有 NVIDIA® GPU,并且满足以下条件,推荐安装GPU版的PaddlePaddle
* *CUDA 工具包10.0配合cuDNN v7.3+(如需多卡支持,需配合NCCL2.3.7及更高)*
* *CUDA 工具包9.0配合cuDNN v7.3+(如需多卡支持,需配合NCCL2.3.7及更高)*
* *CUDA 工具包8.0配合cuDNN v7.1+(如需多卡支持,需配合NCCL2.1.15-2.2.13)*
* *GPU运算能力超过1.0的硬件设备*
* **CUDA 工具包10.0配合cuDNN v7.3+(如需多卡支持,需配合NCCL2.3.7及更高)**
* **CUDA 工具包9.0配合cuDNN v7.3+(如需多卡支持,需配合NCCL2.3.7及更高)**
* **GPU运算能力超过1.0的硬件设备**
您可参考NVIDIA官方文档了解CUDA和CUDNN的安装流程和配置方法,请见[CUDA](https://docs.nvidia.com/cuda/cuda-installation-guide-linux/),[cuDNN](https://docs.nvidia.com/deeplearning/sdk/cudnn-install/)
......@@ -75,9 +74,9 @@
* 如果您需要使用多卡环境请确保您已经正确安装nccl2,或者按照以下指令安装nccl2(这里提供的是ubuntu 16.04,CUDA9,cuDNN7下nccl2的安装指令),更多版本的安装信息请参考NVIDIA[官方网站](https://developer.nvidia.com/nccl):
wget https://developer.download.nvidia.com/compute/machine-learning/repos/ubuntu1604/x86_64/nvidia-machine-learning-repo-ubuntu1604_1.0.0-1_amd64.deb
dpkg -i nvidia-machine-learning-repo-ubuntu1604_1.0.0-1_amd64.deb
sudo apt-get install -y libnccl2=2.3.7-1+cuda9.0 libnccl-dev=2.3.7-1+cuda9.0
wget https://developer.download.nvidia.com/compute/machine-learning/repos/ubuntu1604/x86_64/nvidia-machine-learning-repo-ubuntu1604_1.0.0-1_amd64.deb
dpkg -i nvidia-machine-learning-repo-ubuntu1604_1.0.0-1_amd64.deb
sudo apt-get install -y libnccl2=2.3.7-1+cuda9.0 libnccl-dev=2.3.7-1+cuda9.0
......@@ -97,7 +96,6 @@ Ubuntu系统下有5种安装方式:
* CPU版PaddlePaddle:`python -m pip install paddlepaddle -i https://pypi.tuna.tsinghua.edu.cn/simple``python3 -m pip install paddlepaddle -i https://pypi.tuna.tsinghua.edu.cn/simple`
* GPU版PaddlePaddle:`python -m pip install paddlepaddle-gpu -i https://pypi.tuna.tsinghua.edu.cn/simple``python3 -m pip install paddlepaddle-gpu -i https://pypi.tuna.tsinghua.edu.cn/simple`
您可[验证是否安装成功](#check),如有问题请查看[FAQ](./FAQ.html)
......@@ -106,7 +104,6 @@ Ubuntu系统下有5种安装方式:
* 如果是python2.7, 建议使用`python`命令; 如果是python3.x, 则建议使用`python3`命令
* `python -m pip install paddlepaddle-gpu -i https://pypi.tuna.tsinghua.edu.cn/simple` 此命令将安装支持CUDA 10.0 cuDNN v7的PaddlePaddle,如您对CUDA或cuDNN版本有不同要求,可用`python -m pip install paddlepaddle-gpu==[版本号] -i https://pypi.tuna.tsinghua.edu.cn/simple``python3 -m pip install paddlepaddle-gpu==[版本号] -i https://pypi.tuna.tsinghua.edu.cn/simple`命令来安装,版本号请见[这里](https://pypi.org/project/paddlepaddle-gpu/#history),关于paddlepaddle与CUDA, cuDNN版本的对应关系请见[安装包列表](./Tables.html/#whls)
......@@ -122,6 +119,6 @@ Ubuntu系统下有5种安装方式:
## 如何卸载
请使用以下命令卸载PaddlePaddle:
* ***CPU版本的PaddlePaddle***: `python -m pip uninstall paddlepaddle``python3 -m pip uninstall paddlepaddle`
* **CPU版本的PaddlePaddle**: `python -m pip uninstall paddlepaddle``python3 -m pip uninstall paddlepaddle`
* ***GPU版本的PaddlePaddle***: `python -m pip uninstall paddlepaddle-gpu``python3 -m pip uninstall paddlepaddle-gpu`
* **GPU版本的PaddlePaddle**: `python -m pip uninstall paddlepaddle-gpu``python3 -m pip uninstall paddlepaddle-gpu`
......@@ -2,9 +2,9 @@
## 环境准备
* *Windows 7/8/10 专业版/企业版 (64bit) (GPU版本支持CUDA 8.0/9.0/10.0,且仅支持单卡)*
* *Python 版本 2.7.15+/3.5.1+/3.6/3.7 (64 bit)*
* *pip 或 pip3 版本 9.0.1+ (64 bit)*
* **Windows 7/8/10 专业版/企业版 (64bit) (GPU版本支持CUDA 9.0/10.0,且仅支持单卡)**
* **Python 版本 2.7.15+/3.5.1+/3.6/3.7 (64 bit)**
* **pip 或 pip3 版本 9.0.1+ (64 bit)**
### 注意事项
......@@ -60,10 +60,10 @@
* 如果您的计算机没有 NVIDIA® GPU,请安装CPU版的PaddlePaddle
* 如果您的计算机有 NVIDIA® GPU,并且满足以下条件,推荐安装GPU版的PaddlePaddle
* *CUDA 工具包8.0配合cuDNN v7.1+, 9.0/10.0配合cuDNN v7.3+*
* *GPU运算能力超过1.0的硬件设备*
* **CUDA 工具包9.0/10.0配合cuDNN v7.3+**
* **GPU运算能力超过1.0的硬件设备**
注: 目前官方发布的windows安装包仅包含 CUDA 8.0/9.0/10.0 的单卡模式,不包含 CUDA 9.1/9.2/10.1,如需使用,请通过源码自行编译。
注: 目前官方发布的windows安装包仅包含 CUDA 9.0/10.0 的单卡模式,不包含 CUDA 9.1/9.2/10.1,如需使用,请通过源码自行编译。
您可参考NVIDIA官方文档了解CUDA和CUDNN的安装流程和配置方法,请见[CUDA](https://docs.nvidia.com/cuda/cuda-installation-guide-linux/)[cuDNN](https://docs.nvidia.com/deeplearning/sdk/cudnn-install/)
......@@ -91,7 +91,7 @@ Windows系统下有3种安装方式:
* 如果是python2.7, 建议使用`python`命令; 如果是python3.x, 则建议使用`python3`命令
* `python -m pip install paddlepaddle-gpu -i https://pypi.tuna.tsinghua.edu.cn/simple` 此命令将安装支持CUDA 8.0(配合cuDNN v7.1+)或者CUDA 9.0/10.0(配合cuDNN v7.3+)的PaddlePaddle,如您对CUDA或cuDNN版本有不同要求,可用`python -m pip install paddlepaddle-gpu==[版本号] -i https://pypi.tuna.tsinghua.edu.cn/simple``python3 -m pip install paddlepaddle-gpu==[版本号] -i https://pypi.tuna.tsinghua.edu.cn/simple`命令来安装,版本号请见[这里](https://pypi.org/project/paddlepaddle-gpu/#history), 关于paddlepaddle与CUDA, cuDNN版本的对应关系请见[安装包列表](./Tables.html/#whls)
* `python -m pip install paddlepaddle-gpu -i https://pypi.tuna.tsinghua.edu.cn/simple` 此命令将安装支持CUDA 10.0(配合cuDNN v7.3+)的PaddlePaddle,如您对CUDA或cuDNN版本有不同要求,可用`python -m pip install paddlepaddle-gpu==[版本号] -i https://pypi.tuna.tsinghua.edu.cn/simple``python3 -m pip install paddlepaddle-gpu==[版本号] -i https://pypi.tuna.tsinghua.edu.cn/simple`命令来安装,版本号请见[这里](https://pypi.org/project/paddlepaddle-gpu/#history), 关于paddlepaddle与CUDA, cuDNN版本的对应关系请见[安装包列表](./Tables.html/#whls)
<a name="check"></a>
......@@ -103,6 +103,6 @@ Windows系统下有3种安装方式:
## 如何卸载
* ***CPU版本的PaddlePaddle***: `python -m pip uninstall paddlepaddle``python3 -m pip uninstall paddlepaddle`
* **CPU版本的PaddlePaddle**: `python -m pip uninstall paddlepaddle``python3 -m pip uninstall paddlepaddle`
* ***GPU版本的PaddlePaddle***: `python -m pip uninstall paddlepaddle-gpu``python3 -m pip uninstall paddlepaddle-gpu`
* **GPU版本的PaddlePaddle**: `python -m pip uninstall paddlepaddle-gpu``python3 -m pip uninstall paddlepaddle-gpu`
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册