使用Docker安装运行¶
使用Docker安装和运行PaddlePaddle可以无需考虑依赖环境即可运行。并且也可以在Windows的docker中运行。 您可以在 Docker官网 获得基本的Docker安装和使用方法。
如果您在使用Windows,可以参考 这篇 教程,完成在Windows上安装和使用Docker。
在了解Docker的基本使用方法之后,即可开始下面的步骤:
获取PaddlePaddle的Docker镜像¶
执行下面的命令获取最新的PaddlePaddle Docker镜像,版本为cpu_avx_mkl:
docker pull paddlepaddle/paddle
对于国内用户,我们提供了加速访问的镜像源:
docker pull docker.paddlepaddlehub.com/paddle
下载GPU版本(cuda8.0_cudnn5_avx_mkl)的Docker镜像:
docker pull paddlepaddle/paddle:latest-gpu docker pull docker.paddlepaddlehub.com/paddle:latest-gpu
选择下载使用不同的BLAS库的Docker镜像:
# 默认是使用MKL的镜像 docker pull paddlepaddle/paddle # 使用OpenBLAS的镜像 docker pull paddlepaddle/paddle:latest-openblas
下载指定版本的Docker镜像,可以从 DockerHub网站 获取可选的tag,并执行下面的命令:
docker pull paddlepaddle/paddle:[tag] # 比如: docker pull docker.paddlepaddlehub.com/paddle:0.11.0-gpu
在Docker中执行PaddlePaddle训练程序¶
假设您已经在当前目录(比如在/home/work)编写了一个PaddlePaddle的程序 train.py
(可以参考
PaddlePaddleBook
编写),就可以使用下面的命令开始执行训练:
cd /home/work docker run -it -v $PWD:/work paddlepaddle/paddle /work/train.py
上述命令中, -it
参数说明容器已交互式运行; -v $PWD:/work
指定将当前路径(Linux中$PWD变量会展开为当前路径的绝对路径)挂载到容器内部的 /work
目录; paddlepaddle/paddle
指定需要使用的容器; 最后 /work/train.py
为容器内执行的命令,即运行训练程序。
当然,您也可以进入到Docker容器中,以交互式的方式执行或调试您的代码:
注:PaddlePaddle Docker镜像为了减小体积,默认没有安装vim,您可以在容器中执行 apt-get install -y vim
安装后,在容器中编辑代码。
使用Docker启动PaddlePaddle Book教程¶
使用Docker可以快速在本地启动一个包含了PaddlePaddle官方Book教程的Jupyter Notebook,可以通过网页浏览。 PaddlePaddle Book是为用户和开发者制作的一个交互式的Jupyter Notebook。 如果您想要更深入了解deep learning,PaddlePaddle Book一定是您最好的选择。 大家可以通过它阅读教程,或者制作和分享带有代码、公式、图表、文字的交互式文档。
我们提供可以直接运行PaddlePaddle Book的Docker镜像,直接运行:
docker run -p 8888:8888 paddlepaddle/book
国内用户可以使用下面的镜像源来加速访问:
然后在浏览器中输入以下网址:
http://localhost:8888/
就这么简单,享受您的旅程!
使用Docker执行GPU训练¶
为了保证GPU驱动能够在镜像里面正常运行,我们推荐使用 nvidia-docker 来运行镜像。 请不要忘记提前在物理机上安装GPU最新驱动。
nvidia-docker run -it -v $PWD:/work paddlepaddle/paddle:latest-gpu /bin/bash
注: 如果没有安装nvidia-docker,可以尝试以下的方法,将CUDA库和Linux设备挂载到Docker容器内:
export CUDA_SO="$(\ls /usr/lib64/libcuda* | xargs -I{} echo '-v {}:{}') $(\ls /usr/lib64/libnvidia* | xargs -I{} echo '-v {}:{}')" export DEVICES=$(\ls /dev/nvidia* | xargs -I{} echo '--device {}:{}') docker run ${CUDA_SO} ${DEVICES} -it paddlepaddle/paddle:latest-gpu
关于AVX:
AVX是一种CPU指令集,可以加速PaddlePaddle的计算。最新的PaddlePaddle Docker镜像默认 是开启AVX编译的,所以,如果您的电脑不支持AVX,需要单独 编译 PaddlePaddle为no-avx版本。
以下指令能检查Linux电脑是否支持AVX:
if cat /proc/cpuinfo | grep -i avx; then echo Yes; else echo No; fi
如果输出是No,就需要选择使用no-AVX的镜像