fluid_design_idea.md 11.2 KB
Newer Older
T
Tink_Y 已提交
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
# Fluid设计思想

## 简介

本篇文档主要介绍Fluid底层的设计思想,帮助用户更好的理解框架运作过程。

阅读本文档,您将了解:

- Fluid 内部的执行流程
- Program 如何描述模型
- Executor 如何执行运算


## 1. Fluid内部执行流程

Fluid使用一种编译器式的执行流程,分为编译时和运行时两个部分,具体包括:编译器定义 Program ,创建Executor 运行 Program 。

本地训练任务执行流程图如下所示:
T
Tink_Y 已提交
19 20 21
<p align="center">
	<img src="https://raw.githubusercontent.com/PaddlePaddle/FluidDoc/develop/doc/fluid/user_guides/image/fluid_process.png" width=800>
</p>
T
Tink_Y 已提交
22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38

 1. 编译时,用户编写一段python程序,通过调用 Fluid 提供的算子,向一段 Program 中添加变量(Tensor)以及对变量的操作(Operators 或者 Layers)。用户只需要描述核心的前向计算,不需要关心反向计算、分布式下以及异构设备下如何计算。
 
 2. 原始的 Program 在平台内部转换为中间描述语言: `ProgramDesc`
 
 3. 编译期最重要的一个功能模块是 `Transpiler``Transpiler` 接受一段 `ProgramDesc` ,输出一段变化后的 `ProgramDesc` ,作为后端 `Executor` 最终需要执行的 Fluid Program

 4. 后端 Executor 接受 Transpiler 输出的这段 Program ,依次执行其中的 Operator(可以类比为程序语言中的指令),在执行过程中会为 Operator 创建所需的输入输出并进行管理。
	


 
## 2. Program设计思想 

用户完成网络定义后,一段 Fluid 程序中通常存在 2 段 Program:

  1. fluid.default_startup_program:定义了创建模型参数,输入输出,以及模型中可学习参数的初始化等各种操作
T
Tink_Y 已提交
39 40 41 42
    
    default_startup_program 可以由框架自动生成,使用时无需显示地创建
    
    如果调用修改了参数的默认初始化方式,框架会自动的将相关的修改加入default_startup_program
T
Tink_Y 已提交
43 44
  
  2. fluid.default_main_program :定义了神经网络模型,前向反向计算,以及优化算法对网络中可学习参数的更新
T
Tink_Y 已提交
45 46
    
    使用Fluid的核心就是构建起 default_main_program
T
Tink_Y 已提交
47 48 49 50 51 52 53 54 55 56 57 58 59



### Programs and Blocks
Fluid 的 Program 的基本结构是一些嵌套 blocks,形式上类似一段 C++ 或 Java 程序。

blocks中包含:

-  本地变量的定义
-  一系列的operator 

block的概念与通用程序一致,例如在下列这段C++代码中包含三个block:

T
Tink_Y 已提交
60
``` cpp
T
Tink_Y 已提交
61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101
int main(){ //block 0
	int i = 0;
	if (i<10){ //block 1
		for (int j=0;j<10;j++){ //block 2
		}
	}
	return 0;
}
```

类似的,在下列 Fluid 的 Program 包含3段block:

```python
import paddle.fluid as fluid  # block 0

limit = fluid.layers.fill_constant_batch_size_like(
    input=label, dtype='int64', shape=[1], value=5.0)
cond = fluid.layers.less_than(x=label, y=limit)

ie = fluid.layers.IfElse(cond)
with ie.true_block(): # block 1
    true_image = ie.input(image)
    hidden = fluid.layers.fc(input=true_image, size=100, act='tanh')
    prob = fluid.layers.fc(input=hidden, size=10, act='softmax')
    ie.output(prob)

with ie.false_block(): # block 2
    false_image = ie.input(image)
    hidden = fluid.layers.fc(
        input=false_image, size=200, act='tanh')
    prob = fluid.layers.fc(input=hidden, size=10, act='softmax')
    ie.output(prob)

prob = ie()
```
### BlockDesc and ProgramDesc

用户描述的block与program信息在Fluid中以[protobuf](https://en.wikipedia.org/wiki/Protocol_Buffers) 格式保存,所有的`protobub`信息被定义在`framework.proto`中,在Fluid中被称为BlockDesc和ProgramDesc。ProgramDesc和BlockDesc的概念类似于一个[抽象语法树](https://en.wikipedia.org/wiki/Abstract_syntax_tree)

`BlockDesc`中包含本地变量的定义`vars`,和一系列的operator`ops`

T
Tink_Y 已提交
102
```cpp
T
Tink_Y 已提交
103 104 105 106 107 108 109 110 111 112
 message BlockDesc {
  required int32 parent = 1;
  repeated VarDesc vars = 2;
  repeated OpDesc ops = 3;
}
```
parent ID表示父块,因此block中的操作符可以引用本地定义的变量,也可以引用祖先块中定义的变量。

Program 中的每层 block 都被压平并存储在数组中。blocks ID是这个数组中块的索引。

T
Tink_Y 已提交
113
```cpp
T
Tink_Y 已提交
114 115 116 117 118 119 120 121 122 123 124
message ProgramDesc {
  repeated BlockDesc blocks = 1;
}
```

### 使用Blocks的Operator

[Programs and Blocks](#Programs and Blocks)的例子中,IfElseOp这个Operator包含了两个block——true分支和false分支。

下述OpDesc的定义过程描述了一个operator可以包含哪些属性:

T
Tink_Y 已提交
125
```cpp
T
Tink_Y 已提交
126 127 128 129 130 131
message OpDesc {
  AttrDesc attrs = 1;
  ...
}
```
属性可以是block的类型,实际上就是上面描述的block ID:
T
Tink_Y 已提交
132
```cpp
T
Tink_Y 已提交
133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154
message AttrDesc {
  required string name = 1;

  enum AttrType {
    INT = 1,
    STRING = 2,
    ...
    BLOCK = ...
  }
  required AttrType type = 2;

  optional int32 block = 10; // when type == BLOCK
  ...
}
```
<a name="Executor设计思想"></a>
## 3. Executor设计思想

Executor 在运行时将接受一个`ProgramDesc`、一个`block_id`和一个`Scope``ProgramDesc``block`的列表,每一项包含`block`中所有参数和`operator``protobuf`定义;`block_id`指定入口块;`Scope`是所有变量实例的容器。

完成的编译执行的具体过程如下图所示:

T
Tink_Y 已提交
155 156 157
<p align="center">
	<img src="https://raw.githubusercontent.com/PaddlePaddle/FluidDoc/develop/doc/fluid/user_guides/image/executor_design.png" width=600>
</p>
T
Tink_Y 已提交
158 159 160 161 162 163 164 165 166 167

1. Executor 为每一个block创建一个Scope,Block是可嵌套的,因此Scope也是可嵌套的
2. 创建所有Scope中的变量
3. 按顺序创建并执行所有operator




Executor的C++实现代码如下:

T
Tink_Y 已提交
168
```cpp
T
Tink_Y 已提交
169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214
class Executor{
	public:
		void Run(const ProgramDesc& pdesc,
				Scope* scope,
				int block_id) {
			auto& block = pedsc.Block(block_id);
			
			//创建所有变量
			for (auto& var : block.AllVars())
				scope->Var(Var->Name());
			}
			
			//创建OP并按顺序执行
			for (auto& op_desc : block.AllOps()){
				auto op = CreateOp(*op_desc);
				op->Run(*local_scope, place_);
			}
		}
	};
```

**创建Executor**

Fluid中使用fluid.Executor(place)创建Executor,place属性由用户定义,代表程序将在哪里执行。

下例代码表示创建一个Executor,其运行场所在CPU内:

```python
cpu=core.CPUPlace()
exe = fluid.Executor(cpu)
```

**运行Executor**

Fluid使用Executor.run来运行程序。定义中通过Feed映射获取数据,通过fetch\_list获取结果:

```python
...
x = numpy.random.random(size=(10, 1)).astype('float32')
outs = exe.run(
	feed={'X': x},
	fetch_list=[loss.name])
```


## 代码实例
T
Tink_Y 已提交
215
本节通过[Fluid编程指南](../beginners_guide/programming_guide.md)中简单的线性回归例子,为您介绍上述内容如何在代码中实现。
T
Tink_Y 已提交
216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246

**定义Program**

您可以随意定义自己的数据和网络结构,定义的结果都将作为一段 Program 被 Fluid 接收,Program 的基本结构是一些 blocks,本节的 Program 仅包含一个 block 0:

```python
#加载函数库
import paddle.fluid as fluid #block 0
import numpy

#定义数据
train_data=numpy.array([[1.0],[2.0],[3.0],[4.0]]).astype('float32')
y_true = numpy.array([[2.0],[4.0],[6.0],[8.0]]).astype('float32')
#定义网络
x = fluid.layers.data(name="x",shape=[1],dtype='float32')
y = fluid.layers.data(name="y",shape=[1],dtype='float32')
y_predict = fluid.layers.fc(input=x,size=1,act=None)
#定义损失函数
cost = fluid.layers.square_error_cost(input=y_predict,label=y)
avg_cost = fluid.layers.mean(cost)
#定义优化方法
sgd_optimizer = fluid.optimizer.SGD(learning_rate=0.01)
sgd_optimizer.minimize(avg_cost)
```

完成上述定义,也就是完成了 fluid.default_main_program 的构建过程,fluid.default_main_program 中承载着神经网络模型,前向反向计算,以及优化算法对网络中可学习参数的更新。

此时可以输出这段 Program 观察定义好的网络形态:
```python
print(fluid.default_main_program().to_string(True))
```
T
Tink_Y 已提交
247
完整ProgramDesc可以在本地查看,本次仅节选前三个变量的结果如下:
T
Tink_Y 已提交
248
```
T
Tink_Y 已提交
249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295
blocks {
  idx: 0
  parent_idx: -1
  vars {
    name: "mean_1.tmp_0"
    type {
      type: LOD_TENSOR
      lod_tensor {
        tensor {
          data_type: FP32
          dims: 1
        }
      }
    }
    persistable: false
  }
  vars {
    name: "square_error_cost_1.tmp_1"
    type {
      type: LOD_TENSOR
      lod_tensor {
        tensor {
          data_type: FP32
          dims: -1
          dims: 1
        }
        lod_level: 0
      }
    }
    persistable: false
  }
  vars {
    name: "square_error_cost_1.tmp_0"
    type {
      type: LOD_TENSOR
      lod_tensor {
        tensor {
          data_type: FP32
          dims: -1
          dims: 1
        }
        lod_level: 0
      }
    }
    persistable: false
    ...
```
T
Tink_Y 已提交
296
从输出结果中可以看到,整个定义过程在框架内部转化为了一段ProgramDesc,以block idx为索引。本次线性回归模型中仅有1个block,ProgramDesc中也仅有block 0一段BlockDesc。
T
Tink_Y 已提交
297

T
Tink_Y 已提交
298
BlockDesc中包含定义的 vars 和一系列的 ops,以输入x为例,python代码中定义 x 是一个数据类型为"float 32"的1维数据:
T
Tink_Y 已提交
299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318
```python
x = fluid.layers.data(name="x",shape=[1],dtype='float32')
```
在BlockDesc中,变量x被描述为:
``` 
vars {
    name: "x"
    type {
      type: LOD_TENSOR
      lod_tensor {
        tensor {
          data_type: FP32
          dims: -1
          dims: 1
        }
        lod_level: 0
      }
    }
    persistable: false
```
T
Tink_Y 已提交
319 320
在Fluid中所有的数据类型都为LoD-Tensor,对于不存在序列信息的数据(如此处的变量X),其lod_level=0。

T
Tink_Y 已提交
321 322
dims表示数据的维度,这里表示 x 的维度为[-1,1],其中-1是batch的维度,无法确定具体数值时,Fluid 自动用 -1 占位。

T
Tink_Y 已提交
323 324
参数`persistable`表示该变量在整个训练过程中是否为持久化变量。

T
Tink_Y 已提交
325 326
**创建Executor**

327
Fluid使用Executor来执行网络训练,Executor运行细节请参考[Executor设计思想](#Executor设计思想)的介绍。作为使用者,实际并不需要了解内部机制。
T
Tink_Y 已提交
328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363

创建Executor只需调用 fluid.Executor(place) 即可,在此之前请您依据训练场所定义place变量:
```python
 #在CPU内执行训练
 cpu = fluid.core.CPUPlace()
 #创建Executor
 exe = fluid.Executor(cpu)
```
**运行Executor**

Fluid使用Executor.run来运行一段Program。

正式进行网络训练前,需先执行参数初始化。其中 defalut_startup_program 中定义了创建模型参数,输入输出,以及模型中可学习参数的初始化等各种操作。
```python
 #参数初始化
 exe.run(fluid.default_startup_program())
```
由于传入数据与传出数据存在多列,因此 fluid 通过 feed 映射定义数据的传输数据,通过 fetch_list 取出期望结果:
```python
#开始训练
 outs = exe.run(
     feed={'x':train_data,'y':y_true},
     fetch_list=[y_predict.name,avg_cost.name])
```
上述代码段中定义了train_data传入x变量,y_true传入y变量,输出y的预测值和最后一轮cost值。

输出结果为:
```
[array([[1.5248038],
       [3.0496075],
       [4.5744114],
       [6.099215 ]], dtype=float32), array([1.6935859], dtype=float32)]
```

至此您已经了解了Fluid 内部的执行流程的核心概念,更多框架使用细节请参考[使用指南](../user_guides/index.rst)相关内容,[模型库](../user_guides/models/index.rst
)中也为您提供了丰富的模型示例以供参考。