diff --git a/doc/fluid/api_cn/data/data_reader_cn.rst b/doc/fluid/api_cn/data/data_reader_cn.rst
index b46b1559c1b16e419acd496e5f4789b32d1396d5..5fe5df30464d5f0e4a6c06926cab5646c2d94095 100644
--- a/doc/fluid/api_cn/data/data_reader_cn.rst
+++ b/doc/fluid/api_cn/data/data_reader_cn.rst
@@ -238,7 +238,7 @@ Data Reader Interface
def reader():
while True:
yield numpy.random.uniform(-1, 1, size=width*height)
- return reader
+ return reader
多项目数据读取器创建者的示例实现:
@@ -249,7 +249,7 @@ Data Reader Interface
def reader():
while True:
yield numpy.random.uniform(-1, 1, size=width*height), label
- return reader
+ return reader
.. py:function:: paddle.reader.map_readers(func, *readers)
@@ -292,7 +292,7 @@ Data Reader Interface
返回:新的数据读取器
-抛出异常: ``ComposeNotAligned`` – reader的输出不一致。 当check_alignment设置为False,不会升高。
+抛出异常: ``ComposeNotAligned`` – reader的输出不一致。 当check_alignment设置为False,不会抛出异常。
@@ -378,22 +378,15 @@ PipeReader通过流从一个命令中读取数据,将它的stdout放到管道
.. py:method:: get_line(cut_lines=True, line_break='\n')
-param cut_lines:
- cut buffer to lines
-type cut_lines: bool
-
-param line_break:
- line break of the file, like
-
-or
+参数:
+ - **cut_lines** (bool) - 将缓冲区分行。
+ - **line_break** (string) - 文件中的行分割符,比如 ‘\\n’ 或者 ‘\\r’。
-type line_break:
- string
-return: one line or a buffer of bytes
+返回:一行或者一段缓冲区。
-rtype: string
+返回类型: string
diff --git a/doc/fluid/api_cn/layers_cn/io_cn.rst b/doc/fluid/api_cn/layers_cn/io_cn.rst
index 921f16ce64a26987f421a132c29692c83ef97560..d598b04dbc3b9bedb453bd93df2e59b85e8fb4ec 100644
--- a/doc/fluid/api_cn/layers_cn/io_cn.rst
+++ b/doc/fluid/api_cn/layers_cn/io_cn.rst
@@ -331,7 +331,7 @@ py_reader
创建一个由在Python端提供数据的reader
-该layer返回一个Reader Variable。reader提供了 ``decorate_paddle_reader()`` 和 ``decorate_tensor_provider()`` 来设置Python generator作为数据源。更多细节请参考异步数据读取:ref:`user_guide_use_py_reader`,在c++端调用 ``Executor::Run()`` 时,来自generator的数据将被自动读取。与 ``DataFeeder.feed()`` 不同,数据读取进程和 ``Executor::Run()`` 进程可以使用 ``py_reader`` 并行运行。reader的 ``start()`` 方法应该在每次数据传递开始时调用,在传递结束和抛出 ``fluid.core.EOFException`` 后执行 ``reset()`` 方法。注意, ``Program.clone()`` 方法不能克隆 ``py_reader`` 。
+该layer返回一个Reader Variable。reader提供了 ``decorate_paddle_reader()`` 和 ``decorate_tensor_provider()`` 来设置Python generator作为数据源。更多细节请参考 :ref:`user_guides_use_py_reader`,在c++端调用 ``Executor::Run()`` 时,来自generator的数据将被自动读取。与 ``DataFeeder.feed()`` 不同,数据读取进程和 ``Executor::Run()`` 进程可以使用 ``py_reader`` 并行运行。reader的 ``start()`` 方法应该在每次数据传递开始时调用,在传递结束和抛出 ``fluid.core.EOFException`` 后执行 ``reset()`` 方法。注意, ``Program.clone()`` 方法不能克隆 ``py_reader`` 。
参数:
- **capacity** (int) – ``py_reader`` 维护的缓冲区容量
diff --git a/doc/fluid/api_cn/optimizer_cn.rst b/doc/fluid/api_cn/optimizer_cn.rst
index 42573cc10de3af63e7e54d43a39493038fca421d..a2f5202c9f76f2b633f71202c09aed2372b5ba57 100644
--- a/doc/fluid/api_cn/optimizer_cn.rst
+++ b/doc/fluid/api_cn/optimizer_cn.rst
@@ -349,84 +349,6 @@ DGC还使用动量因子掩藏(momentum factor masking)和预训练(warm-up)来
-.. _cn_api_fluid_optimizer_PipelineOptimizer:
-
-PipelineOptimizer
--------------------------------
-
-.. py:class:: paddle.fluid.optimizer.PipelineOptimizer(optimizer, cut_list=None, place_list=None, concurrency_list=None, queue_size=30, sync_steps=1, start_cpu_core_id=0)
-
-Pipeline 优化器训练。该程序将由cut_list分割。如果cut_list的长度是k,则整个程序(包括向后部分)将被分割为2 * k-1个部分。 所以place_list和concurrency_list的长度也必须是2 * k-1。
-
-.. note::
-
- 虽然异步模式应用于管道训练中以加速,但最终的性能取决于每个管道的训练进度。 我们将在未来尝试同步模式。
-
-参数:
- - **optimizer** (Optimizer) - 基础优化器,如SGD
- - **cut_list** (list of Variable list) - main_program的cut变量
- - **place_lis** (list of Place) - 某部分运行的位置
- - **concurrency_lis** (list of int) - 并发度
- - **queue_size** (int) - 每个部分都将使用其范围内队列(in-scope queue)中的范围并将范围生成到范围外队列(out-scope queue)。 而这个参数定范围队列大小。 这一参数可选,默认值:30。
- - **sync_steps** (int) - 不同显卡之间的同步步数
- - **start_cpu_core_id** (int) - 设置第一个cpu核的id。这一参数可选,默认值:0。
-
-**代码示例**
-
-.. code-block:: python
-
- x = fluid.layers.data(name='x', shape=[1], dtype='int64', lod_level=0)
- y = fluid.layers.data(name='y', shape=[1], dtype='int64', lod_level=0)
- emb_x = layers.embedding(input=x, param_attr=fluid.ParamAttr(name="embx"), size=[10,2], is_sparse=False)
- emb_y = layers.embedding(input=y, param_attr=fluid.ParamAttr(name="emby",learning_rate=0.9), size=[10,2], is_sparse=False)
- concat = layers.concat([emb_x, emb_y], axis=1)
- fc = layers.fc(input=concat, name="fc", size=1, num_flatten_dims=1, bias_attr=False)
- loss = layers.reduce_mean(fc)
- optimizer = fluid.optimizer.SGD(learning_rate=0.5)
- optimizer = fluid.optimizer.PipelineOptimizer(optimizer,
- cut_list=[[emb_x, emb_y], [loss]],
- place_list=[fluid.CPUPlace(), fluid.CUDAPlace(0), fluid.CPUPlace()],
- concurrency_list=[1, 1, 4],
- queue_size=2,
- sync_steps=1,
- )
- optimizer.minimize(loss)
- place = fluid.CPUPlace()
- exe = fluid.Executor(place)
- exe.run(fluid.default_startup_program())
- filelist = [] # 您应该根据需求自行设置文件列表, 如: filelist = ["dataA.txt"]
- dataset = fluid.DatasetFactory().create_dataset("FileInstantDataset")
- dataset.set_use_var([x,y])
- dataset.set_batch_size(batch_size)
- dataset.set_filelist(filelist)
- exe.train_from_dataset(
- fluid.default_main_program(),
- dataset,
- thread=2,
- debug=False,
- fetch_list=[],
- fetch_info=[],
- print_period=1)
-
-
-.. py:method:: extract_section_opt_ops(ops, cut_point_name)
-
-获取指定section的优化算子(opt ops)
-
-.. py:method:: extract_section_opt_ops(ops, cut_point_name)
-
-获取指定section的输入和输出
-
-.. py:method:: find_persistable_vars(ops, whole_parameters)
-
-获取指定section的持久性输入变量
-
-.. py:method:: extract_section_ops(ops, cut_point_name)
-
-获取指定的section的算子(ops)
-
-
-
.. _cn_api_fluid_optimizer_ExponentialMovingAverage:
ExponentialMovingAverage
@@ -859,6 +781,70 @@ MomentumOptimizer
+.. _cn_api_fluid_optimizer_PipelineOptimizer:
+
+PipelineOptimizer
+-------------------------------
+
+.. py:class:: paddle.fluid.optimizer.PipelineOptimizer(optimizer, cut_list=None, place_list=None, concurrency_list=None, queue_size=30, sync_steps=1, start_cpu_core_id=0)
+
+使用流水线模式进行训练。
+Program会根据切分列表cut_list进行分割。如果cut_list的长度是k,则整个program(包括反向部分)将被分割为2*k-1个section。 所以place_list和concurrency_list的长度也必须是2*k-1。
+
+.. note::
+
+ 虽然我们在流水线训练模式中采用异步更新的方式来加速,但最终的效果会依赖于每条流水线的训练进程。我们将在未来尝试同步模式。
+
+参数:
+ - **optimizer** (Optimizer) - 基础优化器,如SGD
+ - **cut_list** (list of Variable list) - main_program的cut变量列表
+ - **place_list** (list of Place) - 对应section运行所在的place
+ - **concurrency_list** (list of int) - 指定每个section的并发度列表
+ - **queue_size** (int) - 每个section都会消费其输入队列(in-scope queue)中的scope,并向输出队列(out-scope queue)产出scope。 此参数的作用就是指定队列的大小。 可选,默认值:30
+ - **sync_steps** (int) - 不同显卡之间的同步周期数。可选,默认值:1
+ - **start_cpu_core_id** (int) - 指定所使用的第一个CPU核的id。可选,默认值:0
+
+**代码示例**
+
+.. code-block:: python
+
+ import paddle.fluid as fluid
+ import paddle.fluid.layers as layers
+ x = fluid.layers.data(name='x', shape=[1], dtype='int64', lod_level=0)
+ y = fluid.layers.data(name='y', shape=[1], dtype='int64', lod_level=0)
+ emb_x = layers.embedding(input=x, param_attr=fluid.ParamAttr(name="embx"), size=[10,2], is_sparse=False)
+ emb_y = layers.embedding(input=y, param_attr=fluid.ParamAttr(name="emby",learning_rate=0.9), size=[10,2], is_sparse=False)
+ concat = layers.concat([emb_x, emb_y], axis=1)
+ fc = layers.fc(input=concat, name="fc", size=1, num_flatten_dims=1, bias_attr=False)
+ loss = layers.reduce_mean(fc)
+ optimizer = fluid.optimizer.SGD(learning_rate=0.5)
+ optimizer = fluid.optimizer.PipelineOptimizer(optimizer,
+ cut_list=[[emb_x, emb_y], [loss]],
+ place_list=[fluid.CPUPlace(), fluid.CUDAPlace(0), fluid.CPUPlace()],
+ concurrency_list=[1, 1, 4],
+ queue_size=2,
+ sync_steps=1,
+ )
+ optimizer.minimize(loss)
+ place = fluid.CPUPlace()
+ exe = fluid.Executor(place)
+ exe.run(fluid.default_startup_program())
+ filelist = [] # you should set your own filelist, e.g. filelist = ["dataA.txt"]
+ dataset = fluid.DatasetFactory().create_dataset("FileInstantDataset")
+ dataset.set_use_var([x,y])
+ dataset.set_batch_size(batch_size)
+ dataset.set_filelist(filelist)
+ exe.train_from_dataset(
+ fluid.default_main_program(),
+ dataset,
+ thread=2,
+ debug=False,
+ fetch_list=[],
+ fetch_info=[],
+ print_period=1)
+
+
+
.. _cn_api_fluid_optimizer_RMSPropOptimizer:
diff --git a/doc/fluid/beginners_guide/install/Tables.md b/doc/fluid/beginners_guide/install/Tables.md
index 5d7532cc8125edf331089df7215b0e999759db5b..2696f9d98367972a84f6f5c150264e8ff669e644 100755
--- a/doc/fluid/beginners_guide/install/Tables.md
+++ b/doc/fluid/beginners_guide/install/Tables.md
@@ -212,16 +212,16 @@ PaddePaddle通过编译时指定路径来实现引用各种BLAS/CUDA/cuDNN库。
- paddlepaddle==[版本号] 例如 paddlepaddle==1.5.0 |
+ paddlepaddle==[版本号] 例如 paddlepaddle==1.5.1 |
只支持CPU对应版本的PaddlePaddle,具体版本请参见Pypi |
- paddlepaddle-gpu==1.5.0 |
- 使用CUDA 9.0和cuDNN 7编译的1.5.0版本 |
+ paddlepaddle-gpu==1.5.1 |
+ 使用CUDA 9.0和cuDNN 7编译的1.5.1版本 |
- paddlepaddle-gpu==1.5.0.post87 |
- 使用CUDA 8.0和cuDNN 7编译的1.5.0版本 |
+ paddlepaddle-gpu==1.5.1.post87 |
+ 使用CUDA 8.0和cuDNN 7编译的1.5.1版本 |
@@ -253,110 +253,110 @@ PaddePaddle通过编译时指定路径来实现引用各种BLAS/CUDA/cuDNN库。
cpu-mkl |
-
- paddlepaddle-1.5.0-cp27-cp27mu-linux_x86_64.whl |
-
- paddlepaddle-1.5.0-cp27-cp27m-linux_x86_64.whl |
-
- paddlepaddle-1.5.0-cp35-cp35m-linux_x86_64.whl |
-
- paddlepaddle-1.5.0-cp36-cp36m-linux_x86_64.whl |
-
- paddlepaddle-1.5.0-cp37-cp37m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp27-cp27mu-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp27-cp27m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp35-cp35m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp36-cp36m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp37-cp37m-linux_x86_64.whl |
cpu-openblas |
-
- paddlepaddle-1.5.0-cp27-cp27mu-linux_x86_64.whl |
- paddlepaddle-1.5.0-cp27-cp27m-linux_x86_64.whl |
-
- paddlepaddle-1.5.0-cp35-cp35m-linux_x86_64.whl |
-
- paddlepaddle-1.5.0-cp36-cp36m-linux_x86_64.whl |
-
- paddlepaddle-1.5.0-cp37-cp37m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp27-cp27mu-linux_x86_64.whl |
+ paddlepaddle-1.5.1-cp27-cp27m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp35-cp35m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp36-cp36m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp37-cp37m-linux_x86_64.whl |
cuda8-cudnn7-openblas |
- paddlepaddle_gpu-1.5.0-cp27-cp27mu-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp27-cp27m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp35-cp35m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp36-cp36m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp37-cp37m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27mu-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp35-cp35m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp36-cp36m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp37-cp37m-linux_x86_64.whl |
cuda8-cudnn7-mkl |
- paddlepaddle_gpu-1.5.0-cp27-cp27mu-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp27-cp27m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp35-cp35m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp36-cp36m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp37-cp37m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27mu-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp35-cp35m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp36-cp36m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp37-cp37m-linux_x86_64.whl |
cuda9-cudnn7-mkl |
- paddlepaddle_gpu-1.5.0-cp27-cp27mu-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp27-cp27m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp35-cp35m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp36-cp36m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp37-cp37m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27mu-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp35-cp35m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp36-cp36m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp37-cp37m-linux_x86_64.whl |
cuda10_cudnn7-mkl |
- paddlepaddle_gpu-1.5.0-cp27-cp27mu-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp27-cp27m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp35-cp35m-linux_x86_64.whl |
-
- paddlepaddle_gpu-1.5.0-cp36-cp36m-linux_x86_64.whl |
-
- paddlepaddle_gpu-1.5.0-cp37-cp37m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27mu-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp35-cp35m-linux_x86_64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp36-cp36m-linux_x86_64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp37-cp37m-linux_x86_64.whl |
win_cpu_openblas |
- |
-
- paddlepaddle-1.5.0-cp27-cp27m-win_amd64.whl |
-
- paddlepaddle-1.5.0-cp35-cp35m-win_amd64.whl |
-
- paddlepaddle-1.5.0-cp36-cp36m-win_amd64.whl |
-
- paddlepaddle-1.5.0-cp37-cp37m-win_amd64.whl |
+
+ paddlepaddle-1.5.1-cp27-cp27m-win_amd64.whl |
+
+ paddlepaddle-1.5.1-cp35-cp35m-win_amd64.whl |
+
+ paddlepaddle-1.5.1-cp36-cp36m-win_amd64.whl |
+
+ paddlepaddle-1.5.1-cp37-cp37m-win_amd64.whl |
win_cuda8_cudnn7_openblas |
- |
-
- paddlepaddle_gpu-1.5.0-cp27-cp27m-win_amd64.whl |
-
- paddlepaddle_gpu-1.5.0-cp35-cp35m-win_amd64.whl |
-
- paddlepaddle_gpu-1.5.0-cp36-cp36m-win_amd64.whl |
-
- paddlepaddle_gpu-1.5.0-cp37-cp37m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp27-cp27m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp35-cp35m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp36-cp36m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp37-cp37m-win_amd64.whl |
win_cuda9_cudnn7_openblas |
- |
-
- paddlepaddle_gpu-1.5.0-cp27-cp27m-win_amd64.whl |
-
- paddlepaddle_gpu-1.5.0-cp35-cp35m-win_amd64.whl |
-
- paddlepaddle_gpu-1.5.0-cp36-cp36m-win_amd64.whl |
-
- paddlepaddle_gpu-1.5.0-cp37-cp37m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp27-cp27m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp35-cp35m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp36-cp36m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp37-cp37m-win_amd64.whl |
mac_cpu |
- |
-
- paddlepaddle-1.5.0-cp27-cp27m-macosx_10_6_intel.whl |
-
- paddlepaddle-1.5.0-cp35-cp35m-macosx_10_6_intel.whl |
-
- paddlepaddle-1.5.0-cp36-cp36m-macosx_10_6_intel.whl |
-
- paddlepaddle-1.5.0-cp37-cp37m-macosx_10_6_intel.whl |
+
+ paddlepaddle-1.5.1-cp27-cp27m-macosx_10_6_intel.whl |
+
+ paddlepaddle-1.5.1-cp35-cp35m-macosx_10_6_intel.whl |
+
+ paddlepaddle-1.5.1-cp36-cp36m-macosx_10_6_intel.whl |
+
+ paddlepaddle-1.5.1-cp37-cp37m-macosx_10_6_intel.whl |
diff --git a/doc/fluid/beginners_guide/install/Tables_en.md b/doc/fluid/beginners_guide/install/Tables_en.md
index 978754a2dfaf2a1c9d8b23085ed9ab00d79e2dc5..9977ec8697c75dfe86ed94cb68c95547c1441b53 100755
--- a/doc/fluid/beginners_guide/install/Tables_en.md
+++ b/doc/fluid/beginners_guide/install/Tables_en.md
@@ -239,16 +239,16 @@ PaddePaddle implements references to various BLAS/CUDA/cuDNN libraries by specif
- paddlepaddle==[version code] such as paddlepaddle==1.5.0 |
+ paddlepaddle==[version code] such as paddlepaddle==1.5.1 |
Only support the corresponding version of the CPU PaddlePaddle, please refer to Pypi for the specific version. |
- paddlepaddle-gpu==1.5.0 |
- Using version 1.5.0 compiled with CUDA 9.0 and cuDNN 7 |
+ paddlepaddle-gpu==1.5.1 |
+ Using version 1.5.1 compiled with CUDA 9.0 and cuDNN 7 |
- paddlepaddle-gpu==1.5.0.post87 |
- Using version 1.5.0 compiled with CUDA 8.0 and cuDNN 7 |
+ paddlepaddle-gpu==1.5.1.post87 |
+ Using version 1.5.1 compiled with CUDA 8.0 and cuDNN 7 |
@@ -319,110 +319,110 @@ You can find the docker image for each release of PaddlePaddle in the [DockerHub
cpu-mkl |
-
- paddlepaddle-1.5.0-cp27-cp27mu-linux_x86_64.whl |
-
- paddlepaddle-1.5.0-cp27-cp27m-linux_x86_64.whl |
-
- paddlepaddle-1.5.0-cp35-cp35m-linux_x86_64.whl |
-
- paddlepaddle-1.5.0-cp36-cp36m-linux_x86_64.whl |
-
- paddlepaddle-1.5.0-cp37-cp37m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp27-cp27mu-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp27-cp27m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp35-cp35m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp36-cp36m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp37-cp37m-linux_x86_64.whl |
cpu-openblas |
-
- paddlepaddle-1.5.0-cp27-cp27mu-linux_x86_64.whl |
- paddlepaddle-1.5.0-cp27-cp27m-linux_x86_64.whl |
-
- paddlepaddle-1.5.0-cp35-cp35m-linux_x86_64.whl |
-
- paddlepaddle-1.5.0-cp36-cp36m-linux_x86_64.whl |
-
- paddlepaddle-1.5.0-cp37-cp37m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp27-cp27mu-linux_x86_64.whl |
+ paddlepaddle-1.5.1-cp27-cp27m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp35-cp35m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp36-cp36m-linux_x86_64.whl |
+
+ paddlepaddle-1.5.1-cp37-cp37m-linux_x86_64.whl |
cuda8-cudnn7-openblas |
- paddlepaddle_gpu-1.5.0-cp27-cp27mu-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp27-cp27m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp35-cp35m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp36-cp36m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp37-cp37m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27mu-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp35-cp35m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp36-cp36m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp37-cp37m-linux_x86_64.whl |
cuda8-cudnn7-mkl |
- paddlepaddle_gpu-1.5.0-cp27-cp27mu-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp27-cp27m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp35-cp35m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp36-cp36m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp37-cp37m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27mu-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp35-cp35m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp36-cp36m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp37-cp37m-linux_x86_64.whl |
cuda9-cudnn7-mkl |
- paddlepaddle_gpu-1.5.0-cp27-cp27mu-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp27-cp27m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp35-cp35m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp36-cp36m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp37-cp37m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27mu-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp35-cp35m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp36-cp36m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp37-cp37m-linux_x86_64.whl |
cuda10_cudnn7-mkl |
- paddlepaddle_gpu-1.5.0-cp27-cp27mu-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp27-cp27m-linux_x86_64.whl |
- paddlepaddle_gpu-1.5.0-cp35-cp35m-linux_x86_64.whl |
-
- paddlepaddle_gpu-1.5.0-cp36-cp36m-linux_x86_64.whl |
-
- paddlepaddle_gpu-1.5.0-cp37-cp37m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27mu-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp27-cp27m-linux_x86_64.whl |
+ paddlepaddle_gpu-1.5.1-cp35-cp35m-linux_x86_64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp36-cp36m-linux_x86_64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp37-cp37m-linux_x86_64.whl |
win_cpu_openblas |
- |
-
- paddlepaddle-1.5.0-cp27-cp27m-win_amd64.whl |
-
- paddlepaddle-1.5.0-cp35-cp35m-win_amd64.whl |
-
- paddlepaddle-1.5.0-cp36-cp36m-win_amd64.whl |
-
- paddlepaddle-1.5.0-cp37-cp37m-win_amd64.whl |
+
+ paddlepaddle-1.5.1-cp27-cp27m-win_amd64.whl |
+
+ paddlepaddle-1.5.1-cp35-cp35m-win_amd64.whl |
+
+ paddlepaddle-1.5.1-cp36-cp36m-win_amd64.whl |
+
+ paddlepaddle-1.5.1-cp37-cp37m-win_amd64.whl |
win_cuda8_cudnn7_openblas |
- |
-
- paddlepaddle_gpu-1.5.0-cp27-cp27m-win_amd64.whl |
-
- paddlepaddle_gpu-1.5.0-cp35-cp35m-win_amd64.whl |
-
- paddlepaddle_gpu-1.5.0-cp36-cp36m-win_amd64.whl |
-
- paddlepaddle_gpu-1.5.0-cp37-cp37m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp27-cp27m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp35-cp35m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp36-cp36m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp37-cp37m-win_amd64.whl |
win_cuda9_cudnn7_openblas |
- |
-
- paddlepaddle_gpu-1.5.0-cp27-cp27m-win_amd64.whl |
-
- paddlepaddle_gpu-1.5.0-cp35-cp35m-win_amd64.whl |
-
- paddlepaddle_gpu-1.5.0-cp36-cp36m-win_amd64.whl |
-
- paddlepaddle_gpu-1.5.0-cp37-cp37m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp27-cp27m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp35-cp35m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp36-cp36m-win_amd64.whl |
+
+ paddlepaddle_gpu-1.5.1-cp37-cp37m-win_amd64.whl |
mac_cpu |
- |
-
- paddlepaddle-1.5.0-cp27-cp27m-macosx_10_6_intel.whl |
-
- paddlepaddle-1.5.0-cp35-cp35m-macosx_10_6_intel.whl |
-
- paddlepaddle-1.5.0-cp36-cp36m-macosx_10_6_intel.whl |
-
- paddlepaddle-1.5.0-cp37-cp37m-macosx_10_6_intel.whl |
+
+ paddlepaddle-1.5.1-cp27-cp27m-macosx_10_6_intel.whl |
+
+ paddlepaddle-1.5.1-cp35-cp35m-macosx_10_6_intel.whl |
+
+ paddlepaddle-1.5.1-cp36-cp36m-macosx_10_6_intel.whl |
+
+ paddlepaddle-1.5.1-cp37-cp37m-macosx_10_6_intel.whl |