diff --git a/doc_cn/build_and_install/index.rst b/doc_cn/build_and_install/index.rst
index 2205e282248c4e7f6d1173be47aadf160554c6be..48163fb36e561fe5fd8f6907379687a8b5c97f68 100644
--- a/doc_cn/build_and_install/index.rst
+++ b/doc_cn/build_and_install/index.rst
@@ -8,9 +8,7 @@ PaddlePaddle提供数个预编译的二进制来进行安装,包括Docker镜
.. toctree::
:maxdepth: 1
- :glob:
- 使用Jumbo安装(对内) <../build/internal/install_from_jumbo.rst>
install/docker_install.rst
install/ubuntu_install.rst
@@ -25,8 +23,5 @@ PaddlePaddle提供数个预编译的二进制来进行安装,包括Docker镜
.. toctree::
:maxdepth: 1
- :glob:
- 源码下载(对内) <../build/internal/download_paddle_source_zh_cn.rst>
- 从源码编译安装(对内) <../build/internal/build_from_source_zh_cn.rst>
cmake/index.rst
diff --git a/doc_cn/introduction/index.rst b/doc_cn/introduction/index.rst
index f6eb5456c007ca03ea6002109b1f27b8a99faa0f..c996f5f4acd07011c98c3e1086080e85ed7dd1b4 100644
--- a/doc_cn/introduction/index.rst
+++ b/doc_cn/introduction/index.rst
@@ -1,102 +1,114 @@
-# 简介
+简介
+====
PaddlePaddle是源于百度的一个深度学习平台。这份简短的介绍将向你展示如何利用PaddlePaddle来解决一个经典的线性回归问题。
-## 1. 一个经典的任务
+1. 一个经典的任务
+-----------------
-我们展示如何用PaddlePaddle解决单变量的线性回归问题。线性回归的输入是一批点`(x, y) `,其中 `y = wx + b + ε`, 而 ε 是一个符合高斯分布的随机变量。线性回归的输出是从这批点估计出来的参数 w 和 b。
+我们展示如何用PaddlePaddle解决 `单变量的线性回归 `_ 问题。线性回归的输入是一批点 `(x, y)` ,其中 `y = wx + b + ε`, 而 ε 是一个符合高斯分布的随机变量。线性回归的输出是从这批点估计出来的参数 `w` 和 `b` 。
一个例子是房产估值。我们假设房产的价格(y)是其大小(x)的一个线性函数,那么我们可以通过收集市场上房子的大小和价格,用来估计线性函数的参数w 和 b。
-## 2. 准备数据
+2. 准备数据
+-----------
假设变量 `x` 和 `y` 的真实关系为: `y = 2x + 0.3 + ε`,这里展示如何使用观测数据来拟合这一线性关系。首先,Python代码将随机产生2000个观测点,作为线性回归的输入。下面脚本符合PaddlePaddle期待的读取数据的Python程序的模式。
-```python
-# dataprovider.py
-from paddle.trainer.PyDataProvider2 import *
-import random
+.. code-block:: python
-# 定义输入数据的类型: 2个浮点数
-@provider(input_types=[dense_vector(1), dense_vector(1)],use_seq=False)
-def process(settings, input_file):
- for i in xrange(2000):
- x = random.random()
- yield [x], [2*x+0.3]
-```
+ # dataprovider.py
+ from paddle.trainer.PyDataProvider2 import *
+ import random
-## 3. 训练模型
+ # 定义输入数据的类型: 2个浮点数
+ @provider(input_types=[dense_vector(1), dense_vector(1)],use_seq=False)
+ def process(settings, input_file):
+ for i in xrange(2000):
+ x = random.random()
+ yield [x], [2*x+0.3]
+
+3. 训练模型
+-----------
为了还原 `y = 2x + 0.3`,我们先从一条随机的直线 `y' = wx + b` 开始,然后利用观测数据调整 `w` 和 `b` 使得 `y'` 和 `y` 的差距不断减小,最终趋于接近。这个过程就是模型的训练过程,而 `w` 和 `b` 就是模型的参数,即我们的训练目标。
在PaddlePaddle里,该模型的网络配置如下。
-```python
-# trainer_config.py
-from paddle.trainer_config_helpers import *
-
-# 1. 定义数据来源,调用上面的process函数获得观测数据
-data_file = 'empty.list'
-with open(data_file, 'w') as f: f.writelines(' ')
-define_py_data_sources2(train_list=data_file, test_list=None,
- module='dataprovider', obj='process',args={})
-
-# 2. 学习算法。控制如何改变模型参数 w 和 b
-settings(batch_size=12, learning_rate=1e-3, learning_method=MomentumOptimizer())
-
-# 3. 神经网络配置
-x = data_layer(name='x', size=1)
-y = data_layer(name='y', size=1)
-# 线性计算网络层: ȳ = wx + b
-ȳ = fc_layer(input=x, param_attr=ParamAttr(name='w'), size=1, act=LinearActivation(), bias_attr=ParamAttr(name='b'))
-# 计算误差函数,即 ȳ 和真实 y 之间的距离
-cost = regression_cost(input= ȳ, label=y)
-outputs(cost)
-```
+.. code-block:: python
+
+ # trainer_config.py
+ from paddle.trainer_config_helpers import *
+
+ # 1. 定义数据来源,调用上面的process函数获得观测数据
+ data_file = 'empty.list'
+ with open(data_file, 'w') as f: f.writelines(' ')
+ define_py_data_sources2(train_list=data_file, test_list=None,
+ module='dataprovider', obj='process',args={})
+
+ # 2. 学习算法。控制如何改变模型参数 w 和 b
+ settings(batch_size=12, learning_rate=1e-3, learning_method=MomentumOptimizer())
+
+ # 3. 神经网络配置
+ x = data_layer(name='x', size=1)
+ y = data_layer(name='y', size=1)
+ # 线性计算网络层: ȳ = wx + b
+ ȳ = fc_layer(input=x, param_attr=ParamAttr(name='w'), size=1, act=LinearActivation(), bias_attr=ParamAttr(name='b'))
+ # 计算误差函数,即 ȳ 和真实 y 之间的距离
+ cost = regression_cost(input= ȳ, label=y)
+ outputs(cost)
+
这段简短的配置展示了PaddlePaddle的基本用法:
-- 第一部分定义了数据输入。一般情况下,PaddlePaddle先从一个文件列表里获得数据文件地址,然后交给用户自定义的函数(例如上面的`process`函数)进行读入和预处理从而得到真实输入。本文中由于输入数据是随机生成的不需要读输入文件,所以放一个空列表(`empty.list`)即可。
+- 第一部分定义了数据输入。一般情况下,PaddlePaddle先从一个文件列表里获得数据文件地址,然后交给用户自定义的函数(例如上面的 `process`函数)进行读入和预处理从而得到真实输入。本文中由于输入数据是随机生成的不需要读输入文件,所以放一个空列表(`empty.list`)即可。
- 第二部分主要是选择学习算法,它定义了模型参数改变的规则。PaddlePaddle提供了很多优秀的学习算法,这里使用一个基于momentum的随机梯度下降(SGD)算法,该算法每批量(batch)读取12个采样数据进行随机梯度计算来更新更新。
- 最后一部分是神经网络的配置。由于PaddlePaddle已经实现了丰富的网络层,所以很多时候你需要做的只是定义正确的网络层并把它们连接起来。这里使用了三种网络单元:
+
- **数据层**:数据层 `data_layer` 是神经网络的入口,它读入数据并将它们传输到接下来的网络层。这里数据层有两个,分别对应于变量 `x` 和 `y`。
- **全连接层**:全连接层 `fc_layer` 是基础的计算单元,这里利用它建模变量之间的线性关系。计算单元是神经网络的核心,PaddlePaddle支持大量的计算单元和任意深度的网络连接,从而可以拟合任意的函数来学习复杂的数据关系。
- - **回归误差代价层**:回归误差代价层 `regression_cost`是众多误差代价函数层的一种,它们在训练过程作为网络的出口,用来计算模型的误差,是模型参数优化的目标函数。
+ - **回归误差代价层**:回归误差代价层 `regression_cost` 是众多误差代价函数层的一种,它们在训练过程作为网络的出口,用来计算模型的误差,是模型参数优化的目标函数。
+
+定义了网络结构并保存为 `trainer_config.py` 之后,运行以下训练命令:
+
+.. code-block:: bash
-定义了网络结构并保存为`trainer_config.py`之后,运行以下训练命令:
- ```
- paddle train --config=trainer_config.py --save_dir=./output --num_passes=30
- ```
+ paddle train --config=trainer_config.py --save_dir=./output --num_passes=30
PaddlePaddle将在观测数据集上迭代训练30轮,并将每轮的模型结果存放在 `./output` 路径下。从输出日志可以看到,随着轮数增加误差代价函数的输出在不断的减小,这意味着模型在训练数据上不断的改进,直到逼近真实解:` y = 2x + 0.3 `
-## 4. 模型检验
+4. 模型检验
+-----------
训练完成后,我们希望能够检验模型的好坏。一种常用的做法是用学习的模型对另外一组测试数据进行预测,评价预测的效果。在这个例子中,由于已经知道了真实答案,我们可以直接观察模型的参数是否符合预期来进行检验。
PaddlePaddle将每个模型参数作为一个numpy数组单独存为一个文件,所以可以利用如下方法读取模型的参数。
-```python
-import numpy as np
-import os
+.. code-block:: python
-def load(file_name):
- with open(file_name, 'rb') as f:
- f.read(16) # skip header for float type.
- return np.fromfile(f, dtype=np.float32)
+ import numpy as np
+ import os
+
+ def load(file_name):
+ with open(file_name, 'rb') as f:
+ f.read(16) # skip header for float type.
+ return np.fromfile(f, dtype=np.float32)
-print 'w=%.6f, b=%.6f' % (load('output/pass-00029/w'), load('output/pass-00029/b'))
-# w=1.999743, b=0.300137
-```
- ![](./parameters.png)
+ print 'w=%.6f, b=%.6f' % (load('output/pass-00029/w'), load('output/pass-00029/b'))
+ # w=1.999743, b=0.300137
+
+.. image:: ./parameters.png
+ :align: center
+ :scale: 80 %
从图中可以看到,虽然 `w` 和 `b` 都使用随机值初始化,但在起初的几轮训练中它们都在快速逼近真实值,并且后续仍在不断改进,使得最终得到的模型几乎与真实模型一致。
-这样,我们用PaddlePaddle解决了单变量线性回归问题, 包括数据输入,模型训练和最后的结果验证。
+这样,我们用PaddlePaddle解决了单变量线性回归问题, 包括数据输入、模型训练和最后的结果验证。
-## 5. 推荐后续阅读
+5. 推荐后续阅读
+---------------
-- 安装/编译:PaddlePaddle的安装与编译文档。
-- 快速入门 :使用商品评论分类任务,系统性的介绍如何一步步改进,最终得到产品级的深度模型。
-- 示例:各种实用案例,涵盖图像、文本、推荐等多个领域。
+- `安装/编译 <../build_and_install/index.html>`_ :PaddlePaddle的安装与编译文档。
+- `快速入门 <../demo/quick_start/index.html>`_ :使用商品评论分类任务,系统性的介绍如何一步步改进,最终得到产品级的深度模型。
+- `示例 <../demo/index.html>`_ :各种实用案例,涵盖图像、文本、推荐等多个领域。
\ No newline at end of file
diff --git a/doc_cn/ui/predict/swig_py_paddle.rst b/doc_cn/ui/predict/swig_py_paddle.rst
index 89031dd72f5065b6919d873f5611a5e94e8b62e3..05f25345c5246687363dee1931310120b5723d0b 100644
--- a/doc_cn/ui/predict/swig_py_paddle.rst
+++ b/doc_cn/ui/predict/swig_py_paddle.rst
@@ -9,15 +9,24 @@ PaddlePaddle使用swig对常用的预测接口进行了封装,通过编译会
基于Python的模型预测,主要包括以下五个步骤。
1. 初始化PaddlePaddle环境
- 在程序开始阶段,通过调用 ``swig_paddle.initPaddle()`` 并传入相应的命令行参数初始化PaddlePaddle。
+
+ 在程序开始阶段,通过调用 ``swig_paddle.initPaddle()`` 并传入相应的命令行参数初始化PaddlePaddle。
+
2. 解析模型配置文件
- 初始化之后,可以通过调用 ``parse_config()`` 解析训练模型时用的配置文件。注意预测数据通常不包含label, 同时预测网络通常直接输出最后一层的结果而不是像训练网络一样再接一层cost layer,所以一般需要对训练用的模型配置文件稍作相应修改才能在预测时使用。
+
+ 初始化之后,可以通过调用 ``parse_config()`` 解析训练模型时用的配置文件。注意预测数据通常不包含label, 同时预测网络通常直接输出最后一层的结果而不是像训练网络一样再接一层cost layer,所以一般需要对训练用的模型配置文件稍作相应修改才能在预测时使用。
+
3. 构造paddle.GradientMachine
- 通过调用 ``swig_paddle.GradientMachine.createFromConfigproto()`` 传入上一步解析出来的模型配置就可以创建一个 ``GradientMachine``。
+
+ 通过调用 ``swig_paddle.GradientMachine.createFromConfigproto()`` 传入上一步解析出来的模型配置就可以创建一个 ``GradientMachine``。
+
4. 准备预测数据
- swig_paddle中的预测接口的参数是自定义的C++数据类型,py_paddle里面提供了一个工具类 ``DataProviderConverter`` 可以用于接收和PyDataProvider2一样的输入数据并转换成预测接口所需的数据类型。
+
+ swig_paddle中的预测接口的参数是自定义的C++数据类型,py_paddle里面提供了一个工具类 ``DataProviderConverter`` 可以用于接收和PyDataProvider2一样的输入数据并转换成预测接口所需的数据类型。
+
5. 模型预测
- 通过调用 ``forwardTest()`` 传入预测数据,直接返回计算结果。
+
+ 通过调用 ``forwardTest()`` 传入预测数据,直接返回计算结果。
预测Demo
@@ -34,7 +43,8 @@ Demo预测输出如下,其中value即为softmax层的输出。由于TEST_DATA
.. code-block:: text
- [{'id': None, 'value': array([[ 5.53018653e-09, 1.12194102e-05, 1.96644767e-09,
+ [{'id': None, 'value': array(
+ [[ 5.53018653e-09, 1.12194102e-05, 1.96644767e-09,
1.43630644e-02, 1.51111044e-13, 9.85625684e-01,
2.08823112e-10, 2.32777140e-08, 2.00186201e-09,
1.15501715e-08],