diff --git a/image_classification/index.html b/image_classification/index.html
index 0e48c728c61a2b12aa400f8840c1bc0478bf21df..ca6d789d0b611ef23c01b58b9498f5931732e973 100644
--- a/image_classification/index.html
+++ b/image_classification/index.html
@@ -177,108 +177,35 @@ ResNet(Residual Network) \[[15](#参考文献)\] 是2015年ImageNet图像分类
## 数据准备
-### 数据介绍与下载
+通用图像分类公开的标准数据集常用的有[CIFAR]()数据集。CIFAR10数据集包含60,000张32x32的彩色图片,10个类别,每个类包含6,000张。其中50,000张图片作为训练集,10000张作为测试集。图11从每个类别中随机抽取了10张图片,展示了所有的类别。
图11. CIFAR10数据集[21]
-下面命令用于下载数据和基于训练集计算图像均值,在网络输入前,基于该均值对输入数据做预处理。
-
-```bash
-./data/get_data.sh
-```
+Paddle API提供了自动加载cifar数据集模块 `paddle.dataset.cifar`。
-### 数据提供给PaddlePaddle
+通过输入`python train.py`,就可以开始训练模型了,以下小节将详细介绍`train.py`的相关内容。
-我们使用Python接口传递数据给系统,下面 `dataprovider.py` 针对CIFAR10数据给出了完整示例。
-
-- `initializer` 函数进行dataprovider的初始化,这里加载图像的均值,定义了输入image和label两个字段的类型。
+### 模型结构
-- `process` 函数将数据逐条传输给系统,在图像分类任务里,可以在该函数中完成数据扰动操作,再传输给PaddlePaddle。这里对训练集做随机左右翻转,并将原始图片减去均值后传输给系统。
+#### Paddle 初始化
+通过 `paddle.init`,初始化Paddle是否使用GPU,trainer的数目等等。
```python
-import numpy as np
-import cPickle
-from paddle.trainer.PyDataProvider2 import *
-
-def initializer(settings, mean_path, is_train, **kwargs):
- settings.is_train = is_train
- settings.input_size = 3 * 32 * 32
- settings.mean = np.load(mean_path)['mean']
- settings.input_types = {
- 'image': dense_vector(settings.input_size),
- 'label': integer_value(10)
- }
-
-
-@provider(init_hook=initializer, pool_size=50000)
-def process(settings, file_list):
- with open(file_list, 'r') as fdata:
- for fname in fdata:
- fo = open(fname.strip(), 'rb')
- batch = cPickle.load(fo)
- fo.close()
- images = batch['data']
- labels = batch['labels']
- for im, lab in zip(images, labels):
- if settings.is_train and np.random.randint(2):
- im = im.reshape(3, 32, 32)
- im = im[:,:,::-1]
- im = im.flatten()
- im = im - settings.mean
- yield {
- 'image': im.astype('float32'),
- 'label': int(lab)
- }
-```
-
-## 模型配置说明
-
-### 数据定义
-
-在模型配置中,定义通过 `define_py_data_sources2` 函数从 dataprovider 中读入数据, 其中 args 指定均值文件的路径。如果该配置文件用于预测,则不需要数据定义部分。
+import sys
+import paddle.v2 as paddle
+from vgg import vgg_bn_drop
+from resnet import resnet_cifar10
-```python
-from paddle.trainer_config_helpers import *
-
-is_predict = get_config_arg("is_predict", bool, False)
-if not is_predict:
- define_py_data_sources2(
- train_list='data/train.list',
- test_list='data/test.list',
- module='dataprovider',
- obj='process',
- args={'mean_path': 'data/mean.meta'})
+# PaddlePaddle init
+paddle.init(use_gpu=False, trainer_count=1)
```
-### 算法配置
-
-在模型配置中,通过 `settings` 设置训练使用的优化算法,并指定batch size 、初始学习率、momentum以及L2正则。
-
-```python
-settings(
- batch_size=128,
- learning_rate=0.1 / 128.0,
- learning_rate_decay_a=0.1,
- learning_rate_decay_b=50000 * 100,
- learning_rate_schedule='discexp',
- learning_method=MomentumOptimizer(0.9),
- regularization=L2Regularization(0.0005 * 128),)
-```
-
-通过 `learning_rate_decay_a` (简写$a$) 、`learning_rate_decay_b` (简写$b$) 和 `learning_rate_schedule` 指定学习率调整策略,这里采用离散指数的方式调节学习率,计算公式如下, $n$ 代表已经处理过的累计总样本数,$lr_{0}$ 即为 `settings` 里设置的 `learning_rate`。
-
-$$ lr = lr_{0} * a^ {\lfloor \frac{n}{ b}\rfloor} $$
-
-### 模型结构
-
本教程中我们提供了VGG和ResNet两个模型的配置。
#### VGG
@@ -290,49 +217,52 @@ $$ lr = lr_{0} * a^ {\lfloor \frac{n}{ b}\rfloor} $$
网络输入定义为 `data_layer` (数据层),在图像分类中即为图像像素信息。CIFRAR10是RGB 3通道32x32大小的彩色图,因此输入数据大小为3072(3x32x32),类别大小为10,即10分类。
```python
- datadim = 3 * 32 * 32
- classdim = 10
- data = data_layer(name='image', size=datadim)
+ datadim = 3 * 32 * 32
+ classdim = 10
+
+ image = paddle.layer.data(
+ name="image", type=paddle.data_type.dense_vector(datadim))
```
2. 定义VGG网络核心模块
```python
- net = vgg_bn_drop(data)
+ net = vgg_bn_drop(image)
```
VGG核心模块的输入是数据层,`vgg_bn_drop` 定义了16层VGG结构,每层卷积后面引入BN层和Dropout层,详细的定义如下:
```python
- def vgg_bn_drop(input, num_channels):
- def conv_block(ipt, num_filter, groups, dropouts, num_channels_=None):
- return img_conv_group(
- input=ipt,
- num_channels=num_channels_,
- pool_size=2,
- pool_stride=2,
- conv_num_filter=[num_filter] * groups,
- conv_filter_size=3,
- conv_act=ReluActivation(),
- conv_with_batchnorm=True,
- conv_batchnorm_drop_rate=dropouts,
- pool_type=MaxPooling())
-
- conv1 = conv_block(input, 64, 2, [0.3, 0], 3)
- conv2 = conv_block(conv1, 128, 2, [0.4, 0])
- conv3 = conv_block(conv2, 256, 3, [0.4, 0.4, 0])
- conv4 = conv_block(conv3, 512, 3, [0.4, 0.4, 0])
- conv5 = conv_block(conv4, 512, 3, [0.4, 0.4, 0])
-
- drop = dropout_layer(input=conv5, dropout_rate=0.5)
- fc1 = fc_layer(input=drop, size=512, act=LinearActivation())
- bn = batch_norm_layer(
- input=fc1, act=ReluActivation(), layer_attr=ExtraAttr(drop_rate=0.5))
- fc2 = fc_layer(input=bn, size=512, act=LinearActivation())
- return fc2
-
+ def vgg_bn_drop(input):
+ def conv_block(ipt, num_filter, groups, dropouts, num_channels=None):
+ return paddle.networks.img_conv_group(
+ input=ipt,
+ num_channels=num_channels,
+ pool_size=2,
+ pool_stride=2,
+ conv_num_filter=[num_filter] * groups,
+ conv_filter_size=3,
+ conv_act=paddle.activation.Relu(),
+ conv_with_batchnorm=True,
+ conv_batchnorm_drop_rate=dropouts,
+ pool_type=paddle.pooling.Max())
+
+ conv1 = conv_block(input, 64, 2, [0.3, 0], 3)
+ conv2 = conv_block(conv1, 128, 2, [0.4, 0])
+ conv3 = conv_block(conv2, 256, 3, [0.4, 0.4, 0])
+ conv4 = conv_block(conv3, 512, 3, [0.4, 0.4, 0])
+ conv5 = conv_block(conv4, 512, 3, [0.4, 0.4, 0])
+
+ drop = paddle.layer.dropout(input=conv5, dropout_rate=0.5)
+ fc1 = paddle.layer.fc(input=drop, size=512, act=paddle.activation.Linear())
+ bn = paddle.layer.batch_norm(
+ input=fc1,
+ act=paddle.activation.Relu(),
+ layer_attr=paddle.attr.Extra(drop_rate=0.5))
+ fc2 = paddle.layer.fc(input=bn, size=512, act=paddle.activation.Linear())
+ return fc2
```
- 2.1. 首先定义了一组卷积网络,即conv_block。卷积核大小为3x3,池化窗口大小为2x2,窗口滑动大小为2,groups决定每组VGG模块是几次连续的卷积操作,dropouts指定Dropout操作的概率。所使用的`img_conv_group`是在`paddle.trainer_config_helpers`中预定义的模块,由若干组 `Conv->BN->ReLu->Dropout` 和 一组 `Pooling` 组成,
+ 2.1. 首先定义了一组卷积网络,即conv_block。卷积核大小为3x3,池化窗口大小为2x2,窗口滑动大小为2,groups决定每组VGG模块是几次连续的卷积操作,dropouts指定Dropout操作的概率。所使用的`img_conv_group`是在`paddle.networks`中预定义的模块,由若干组 `Conv->BN->ReLu->Dropout` 和 一组 `Pooling` 组成,
2.2. 五组卷积操作,即 5个conv_block。 第一、二组采用两次连续的卷积操作。第三、四、五组采用三次连续的卷积操作。每组最后一个卷积后面Dropout概率为0,即不使用Dropout操作。
@@ -343,20 +273,19 @@ $$ lr = lr_{0} * a^ {\lfloor \frac{n}{ b}\rfloor} $$
通过上面VGG网络提取高层特征,然后经过全连接层映射到类别维度大小的向量,再通过Softmax归一化得到每个类别的概率,也可称作分类器。
```python
- out = fc_layer(input=net, size=class_num, act=SoftmaxActivation())
+ out = paddle.layer.fc(input=net,
+ size=classdim,
+ act=paddle.activation.Softmax())
```
4. 定义损失函数和网络输出
- 在有监督训练中需要输入图像对应的类别信息,同样通过`data_layer`来定义。训练中采用多类交叉熵作为损失函数,并作为网络的输出,预测阶段定义网络的输出为分类器得到的概率信息。
+ 在有监督训练中需要输入图像对应的类别信息,同样通过`paddle.layer.data`来定义。训练中采用多类交叉熵作为损失函数,并作为网络的输出,预测阶段定义网络的输出为分类器得到的概率信息。
```python
- if not is_predict:
- lbl = data_layer(name="label", size=class_num)
- cost = classification_cost(input=out, label=lbl)
- outputs(cost)
- else:
- outputs(out)
+ lbl = paddle.layer.data(
+ name="label", type=paddle.data_type.integer_value(classdim))
+ cost = paddle.layer.classification_cost(input=out, label=lbl)
```
### ResNet
@@ -381,47 +310,38 @@ def conv_bn_layer(input,
filter_size,
stride,
padding,
- active_type=ReluActivation(),
+ active_type=paddle.activation.Relu(),
ch_in=None):
- tmp = img_conv_layer(
+ tmp = paddle.layer.img_conv(
input=input,
filter_size=filter_size,
num_channels=ch_in,
num_filters=ch_out,
stride=stride,
padding=padding,
- act=LinearActivation(),
+ act=paddle.activation.Linear(),
bias_attr=False)
- return batch_norm_layer(input=tmp, act=active_type)
-
+ return paddle.layer.batch_norm(input=tmp, act=active_type)
def shortcut(ipt, n_in, n_out, stride):
if n_in != n_out:
- return conv_bn_layer(ipt, n_out, 1, stride, 0, LinearActivation())
+ return conv_bn_layer(ipt, n_out, 1, stride, 0,
+ paddle.activation.Linear())
else:
return ipt
def basicblock(ipt, ch_out, stride):
- ch_in = ipt.num_filters
+ ch_in = ch_out * 2
tmp = conv_bn_layer(ipt, ch_out, 3, stride, 1)
- tmp = conv_bn_layer(tmp, ch_out, 3, 1, 1, LinearActivation())
- short = shortcut(ipt, ch_in, ch_out, stride)
- return addto_layer(input=[ipt, short], act=ReluActivation())
-
-def bottleneck(ipt, ch_out, stride):
- ch_in = ipt.num_filter
- tmp = conv_bn_layer(ipt, ch_out, 1, stride, 0)
- tmp = conv_bn_layer(tmp, ch_out, 3, 1, 1)
- tmp = conv_bn_layer(tmp, ch_out * 4, 1, 1, 0, LinearActivation())
+ tmp = conv_bn_layer(tmp, ch_out, 3, 1, 1, paddle.activation.Linear())
short = shortcut(ipt, ch_in, ch_out, stride)
- return addto_layer(input=[ipt, short], act=ReluActivation())
+ return paddle.layer.addto(input=[tmp, short], act=paddle.activation.Relu())
def layer_warp(block_func, ipt, features, count, stride):
tmp = block_func(ipt, features, stride)
for i in range(1, count):
tmp = block_func(tmp, features, 1)
return tmp
-
```
`resnet_cifar10` 的连接结构主要有以下几个过程。
@@ -433,106 +353,135 @@ def layer_warp(block_func, ipt, features, count, stride):
注意:除过第一层卷积层和最后一层全连接层之外,要求三组 `layer_warp` 总的含参层数能够被6整除,即 `resnet_cifar10` 的 depth 要满足 $(depth - 2) % 6 == 0$ 。
```python
-def resnet_cifar10(ipt, depth=56):
+def resnet_cifar10(ipt, depth=32):
# depth should be one of 20, 32, 44, 56, 110, 1202
assert (depth - 2) % 6 == 0
n = (depth - 2) / 6
nStages = {16, 64, 128}
- conv1 = conv_bn_layer(ipt,
- ch_in=3,
- ch_out=16,
- filter_size=3,
- stride=1,
- padding=1)
+ conv1 = conv_bn_layer(
+ ipt, ch_in=3, ch_out=16, filter_size=3, stride=1, padding=1)
res1 = layer_warp(basicblock, conv1, 16, n, 1)
res2 = layer_warp(basicblock, res1, 32, n, 2)
res3 = layer_warp(basicblock, res2, 64, n, 2)
- pool = img_pool_layer(input=res3,
- pool_size=8,
- stride=1,
- pool_type=AvgPooling())
+ pool = paddle.layer.img_pool(
+ input=res3, pool_size=8, stride=1, pool_type=paddle.pooling.Avg())
return pool
```
-## 模型训练
+## 训练模型
-执行脚本 train.sh 进行模型训练, 其中指定配置文件、设备类型、线程个数、总共训练的轮数、模型存储路径等。
+### 定义参数
-``` bash
-sh train.sh
+首先依据模型配置的`cost`定义模型参数。
+
+```python
+# Create parameters
+parameters = paddle.parameters.create(cost)
```
-脚本 `train.sh` 如下:
-
-```bash
-#cfg=models/resnet.py
-cfg=models/vgg.py
-output=output
-log=train.log
-
-paddle train \
- --config=$cfg \
- --use_gpu=true \
- --trainer_count=1 \
- --log_period=100 \
- --num_passes=300 \
- --save_dir=$output \
- 2>&1 | tee $log
+可以打印参数名字,如果在网络配置中没有指定名字,则默认生成。
+
+```python
+print parameters.keys()
```
-- `--config=$cfg` : 指定配置文件,默认是 `models/vgg.py`。
-- `--use_gpu=true` : 指定使用GPU训练,若使用CPU,设置为false。
-- `--trainer_count=1` : 指定线程个数或GPU个数。
-- `--log_period=100` : 指定日志打印的batch间隔。
-- `--save_dir=$output` : 指定模型存储路径。
+### 构造训练(Trainer)
-一轮训练log示例如下所示,经过1个pass, 训练集上平均error为0.79958 ,测试集上平均error为0.7858 。
+根据网络拓扑结构和模型参数来构造出trainer用来训练,在构造时还需指定优化方法,这里使用最基本的Momentum方法,同时设定了学习率、正则等。
-```text
-TrainerInternal.cpp:165] Batch=300 samples=38400 AvgCost=2.07708 CurrentCost=1.96158 Eval: classification_error_evaluator=0.81151 CurrentEval: classification_error_evaluator=0.789297
-TrainerInternal.cpp:181] Pass=0 Batch=391 samples=50000 AvgCost=2.03348 Eval: classification_error_evaluator=0.79958
-Tester.cpp:115] Test samples=10000 cost=1.99246 Eval: classification_error_evaluator=0.7858
+```python
+# Create optimizer
+momentum_optimizer = paddle.optimizer.Momentum(
+ momentum=0.9,
+ regularization=paddle.optimizer.L2Regularization(rate=0.0002 * 128),
+ learning_rate=0.1 / 128.0,
+ learning_rate_decay_a=0.1,
+ learning_rate_decay_b=50000 * 100,
+ learning_rate_schedule='discexp',
+ batch_size=128)
+
+# Create trainer
+trainer = paddle.trainer.SGD(cost=cost,
+ parameters=parameters,
+ update_equation=momentum_optimizer)
```
-图12是训练的分类错误率曲线图,运行到第200个pass后基本收敛,最终得到测试集上分类错误率为8.54%。
+通过 `learning_rate_decay_a` (简写$a$) 、`learning_rate_decay_b` (简写$b$) 和 `learning_rate_schedule` 指定学习率调整策略,这里采用离散指数的方式调节学习率,计算公式如下, $n$ 代表已经处理过的累计总样本数,$lr_{0}$ 即为 `settings` 里设置的 `learning_rate`。
-
-
-图12. CIFAR10数据集上VGG模型的分类错误率
-
+$$ lr = lr_{0} * a^ {\lfloor \frac{n}{ b}\rfloor} $$
-## 模型应用
-在训练完成后,模型会保存在路径 `output/pass-%05d` 下,例如第300个pass的模型会保存在路径 `output/pass-00299`。 可以使用脚本 `classify.py` 对图片进行预测或提取特征,注意该脚本默认使用模型配置为 `models/vgg.py`,
+### 训练
+cifar.train10()每次产生一条样本,在完成shuffle和batch之后,作为训练的输入。
-### 预测
+```python
+reader=paddle.reader.batch(
+ paddle.reader.shuffle(
+ paddle.dataset.cifar.train10(), buf_size=50000),
+ batch_size=128)
+```
-可以按照下面方式预测图片的类别,默认使用GPU预测,如果使用CPU预测,在后面加参数 `-c`即可。
+通过`feeding`来指定每一个数据和`paddle.layer.data`的对应关系。例如: `cifar.train10()`产生数据的第0列对应image层的特征。
-```bash
-python classify.py --job=predict --model=output/pass-00299 --data=image/dog.png # -c
+```python
+feeding={'image': 0,
+ 'label': 1}
```
-预测结果为:
+可以使用`event_handler`回调函数来观察训练过程,或进行测试等, 该回调函数是`trainer.train`函数里设定。
-```text
-Label of image/dog.png is: 5
+```python
+# End batch and end pass event handler
+def event_handler(event):
+ if isinstance(event, paddle.event.EndIteration):
+ if event.batch_id % 100 == 0:
+ print "\nPass %d, Batch %d, Cost %f, %s" % (
+ event.pass_id, event.batch_id, event.cost, event.metrics)
+ else:
+ sys.stdout.write('.')
+ sys.stdout.flush()
+ if isinstance(event, paddle.event.EndPass):
+ result = trainer.test(
+ reader=paddle.reader.batch(
+ paddle.dataset.cifar.test10(), batch_size=128),
+ reader_dict={'image': 0,
+ 'label': 1})
+ print "\nTest with Pass %d, %s" % (event.pass_id, result.metrics)
```
-### 特征提取
+通过`trainer.train`函数训练:
+
+```python
+trainer.train(
+ reader=reader,
+ num_passes=200,
+ event_handler=event_handler,
+ feeding=feeding)
+```
-可以按照下面方式对图片提取特征,和预测使用方式不同的是指定job类型为extract,并需要指定提取的层。`classify.py` 默认以第一层卷积特征为例提取特征,并画出了类似图13的可视化图。VGG模型的第一层卷积有64个通道,图13展示了每个通道的灰度图。
+一轮训练log示例如下所示,经过1个pass, 训练集上平均error为0.6875 ,测试集上平均error为0.8852 。
-```bash
-python classify.py --job=extract --model=output/pass-00299 --data=image/dog.png # -c
+```text
+Pass 0, Batch 0, Cost 2.473182, {'classification_error_evaluator': 0.9140625}
+...................................................................................................
+Pass 0, Batch 100, Cost 1.913076, {'classification_error_evaluator': 0.78125}
+...................................................................................................
+Pass 0, Batch 200, Cost 1.783041, {'classification_error_evaluator': 0.7421875}
+...................................................................................................
+Pass 0, Batch 300, Cost 1.668833, {'classification_error_evaluator': 0.6875}
+..........................................................................................
+Test with Pass 0, {'classification_error_evaluator': 0.885200023651123}
```
+图12是训练的分类错误率曲线图,运行到第200个pass后基本收敛,最终得到测试集上分类错误率为8.54%。
+
-
-图13. 卷积特征可视化图
+
+图12. CIFAR10数据集上VGG模型的分类错误率
+
## 总结
传统图像分类方法由多个阶段构成,框架较为复杂,而端到端的CNN模型结构可一步到位,而且大幅度提升了分类准确率。本文我们首先介绍VGG、GoogleNet、ResNet三个经典的模型;然后基于CIFAR10数据集,介绍如何使用PaddlePaddle配置和训练CNN模型,尤其是VGG和ResNet模型;最后介绍如何使用PaddlePaddle的API接口对图片进行预测和特征提取。对于其他数据集比如ImageNet,配置和训练流程是同样的,大家可以自行进行实验。
diff --git a/label_semantic_roles/index.en.html b/label_semantic_roles/index.en.html
index b29478eb08e715d00df046da831241e0f3fd8e74..49c165b0a3cdb0c409d1b858385cf809a9292545 100644
--- a/label_semantic_roles/index.en.html
+++ b/label_semantic_roles/index.en.html
@@ -481,15 +481,15 @@ trainer = paddle.trainer.SGD(cost=crf_cost,
As mentioned in data preparation section, we will use CoNLL 2005 test corpus as training data set. `conll05.test()` outputs one training instance at a time. It will be shuffled, and batched into mini batches as input.
```python
-reader = paddle.reader.batched(
+reader = paddle.batch(
paddle.reader.shuffle(
conll05.test(), buf_size=8192), batch_size=20)
```
-`reader_dict` is used to specify relationship between data instance and layer layer. For example, according to following `reader_dict`, the 0th column of data instance produced by`conll05.test()` correspond to data layer named `word_data`.
+`feeding` is used to specify relationship between data instance and layer layer. For example, according to following `feeding`, the 0th column of data instance produced by`conll05.test()` correspond to data layer named `word_data`.
```python
-reader_dict = {
+feeding = {
'word_data': 0,
'ctx_n2_data': 1,
'ctx_n1_data': 2,
@@ -519,7 +519,7 @@ trainer.train(
reader=reader,
event_handler=event_handler,
num_passes=10000,
- reader_dict=reader_dict)
+ feeding=feeding)
```
## Conclusion
diff --git a/label_semantic_roles/index.html b/label_semantic_roles/index.html
index fca99fedb6d5b5788ab4b31e75287192cd175584..761a5718f98cf94379f4af8ca287f3cfa84ca3a3 100644
--- a/label_semantic_roles/index.html
+++ b/label_semantic_roles/index.html
@@ -168,10 +168,10 @@ $$L(\lambda, D) = - \text{log}\left(\prod_{m=1}^{N}p(Y_m|X_m, W)\right) + C \fra
图6. SRL任务上的深层双向LSTM模型
-## 数据准备
-### 数据介绍与下载
-在此教程中,我们选用[CoNLL 2005](http://www.cs.upc.edu/~srlconll/)SRL任务开放出的数据集作为示例。运行 `sh ./get_data.sh` 会自动从官方网站上下载原始数据。需要特别说明的是,CoNLL 2005 SRL任务的训练数集和开发集在比赛之后并非免费进行公开,目前,能够获取到的只有测试集,包括Wall Street Journal的23节和Brown语料集中的3节。在本教程中,我们以测试集中的WSJ数据为训练集来讲解模型。但是,由于测试集中样本的数量远远不够,如果希望训练一个可用的神经网络SRL系统,请考虑付费获取全量数据。
+## 数据介绍
+
+在此教程中,我们选用[CoNLL 2005](http://www.cs.upc.edu/~srlconll/)SRL任务开放出的数据集作为示例。需要特别说明的是,CoNLL 2005 SRL任务的训练数集和开发集在比赛之后并非免费进行公开,目前,能够获取到的只有测试集,包括Wall Street Journal的23节和Brown语料集中的3节。在本教程中,我们以测试集中的WSJ数据为训练集来讲解模型。但是,由于测试集中样本的数量远远不够,如果希望训练一个可用的神经网络SRL系统,请考虑付费获取全量数据。
原始数据中同时包括了词性标注、命名实体识别、语法解析树等多种信息。本教程中,我们使用test.wsj文件夹中的数据进行训练和测试,并只会用到words文件夹(文本序列)和props文件夹(标注结果)下的数据。本教程使用的数据目录如下:
@@ -184,26 +184,23 @@ conll05st-release/
标注信息源自Penn TreeBank\[[7](#参考文献)\]和PropBank\[[8](#参考文献)\]的标注结果。PropBank标注结果的标签和我们在文章一开始示例中使用的标注结果标签不同,但原理是相同的,关于标注结果标签含义的说明,请参考论文\[[9](#参考文献)\]。
-除数据之外,`get_data.sh`同时下载了以下资源:
-
-| 文件名称 | 说明 |
-|---|---|
-| word_dict | 输入句子的词典,共计44068个词 |
-| label_dict | 标记的词典,共计106个标记 |
-| predicate_dict | 谓词的词典,共计3162个词 |
-| emb | 一个训练好的词表,32维 |
-
-我们在英文维基百科上训练语言模型得到了一份词向量用来初始化SRL模型。在SRL模型训练过程中,词向量不再被更新。关于语言模型和词向量可以参考[词向量](https://github.com/PaddlePaddle/book/blob/develop/word2vec/README.md) 这篇教程。我们训练语言模型的语料共有995,000,000个token,词典大小控制为4900,000词。CoNLL 2005训练语料中有5%的词不在这4900,000个词中,我们将它们全部看作未登录词,用``表示。
-
-### 数据预处理
-脚本在下载数据之后,又调用了`extract_pair.py`和`extract_dict_feature.py`两个子脚本进行数据预处理,前者完成了下面的第1步,后者完成了下面的2~4步:
+原始数据需要进行数据预处理才能被PaddlePaddle处理,预处理包括下面几个步骤:
1. 将文本序列和标记序列其合并到一条记录中;
2. 一个句子如果含有$n$个谓词,这个句子会被处理$n$次,变成$n$条独立的训练样本,每个样本一个不同的谓词;
3. 抽取谓词上下文和构造谓词上下文区域标记;
4. 构造以BIO法表示的标记;
+5. 依据词典获取词对应的整数索引。
+
+
+```python
+# import paddle.v2.dataset.conll05 as conll05
+# conll05.corpus_reader函数完成上面第1步和第2步.
+# conll05.reader_creator函数完成上面第3步到第5步.
+# conll05.test函数可以获取处理之后的每条样本来供PaddlePaddle训练.
+```
-`data/feature`文件是处理好的模型输入,一行是一条训练样本,以"\t"分隔,共9列,分别是:句子序列、谓词、谓词上下文(占 5 列)、谓词上下区域标志、标注序列。下表是一条训练样本的示例。
+预处理完成之后一条训练样本包含9个特征,分别是:句子序列、谓词、谓词上下文(占 5 列)、谓词上下区域标志、标注序列。下表是一条训练样本的示例。
| 句子序列 | 谓词 | 谓词上下文(窗口 = 5) | 谓词上下文区域标记 | 标注序列 |
|---|---|---|---|---|
@@ -216,109 +213,35 @@ conll05st-release/
| set | set | n't been set . × | 1 | B-V |
| . | set | n't been set . × | 1 | O |
-### 提供数据给 PaddlePaddle
-1. 使用hook函数进行PaddlePaddle输入字段的格式定义。
-
- ```python
- def hook(settings, word_dict, label_dict, predicate_dict, **kwargs):
- settings.word_dict = word_dict # 获取句子序列的字典
- settings.label_dict = label_dict # 获取标记序列的字典
- settings.predicate_dict = predicate_dict # 获取谓词的字典
-
- # 所有输入特征都是使用one-hot表示序列,在PaddlePaddle中是interger_value_sequence类型
- # input_types是一个字典,字典中每个元素对应着配置中的一个data_layer,key恰好就是data_layer的名字
-
- settings.input_types = {
- 'word_data': integer_value_sequence(len(word_dict)), # 句子序列
- 'ctx_n2_data': integer_value_sequence(len(word_dict)), # 谓词上下文中的第1个词
- 'ctx_n1_data': integer_value_sequence(len(word_dict)), # 谓词上下文中的第2个词
- 'ctx_0_data': integer_value_sequence(len(word_dict)), # 谓词上下文中的第3个词
- 'ctx_p1_data': integer_value_sequence(len(word_dict)), # 谓词上下文中的第4个词
- 'ctx_p2_data': integer_value_sequence(len(word_dict)), # 谓词上下文中的第5个词
- 'verb_data': integer_value_sequence(len(predicate_dict)), # 谓词
- 'mark_data': integer_value_sequence(2), # 谓词上下文区域标记
- 'target': integer_value_sequence(len(label_dict)) # 标记序列
- }
- ```
-
-2. 使用process将数据逐一提供给PaddlePaddle,只需要考虑如何从原始数据文件中返回一条训练样本。
- ```python
- def process(settings, file_name):
- with open(file_name, 'r') as fdata:
- for line in fdata:
- sentence, predicate, ctx_n2, ctx_n1, ctx_0, ctx_p1, ctx_p2, mark, label = \
- line.strip().split('\t')
-
- # 句子文本
- words = sentence.split()
- sen_len = len(words)
- word_slot = [settings.word_dict.get(w, UNK_IDX) for w in words]
-
- # 一个谓词,这里将谓词扩展成一个和句子一样长的序列
- predicate_slot = [settings.predicate_dict.get(predicate)] * sen_len
-
- # 在教程中,我们使用一个窗口为 5 的谓词上下文窗口:谓词和这个谓词前后隔两个词
- # 这里会将窗口中的每一个词,扩展成和输入句子一样长的序列
- ctx_n2_slot = [settings.word_dict.get(ctx_n2, UNK_IDX)] * sen_len
- ctx_n1_slot = [settings.word_dict.get(ctx_n1, UNK_IDX)] * sen_len
- ctx_0_slot = [settings.word_dict.get(ctx_0, UNK_IDX)] * sen_len
- ctx_p1_slot = [settings.word_dict.get(ctx_p1, UNK_IDX)] * sen_len
- ctx_p2_slot = [settings.word_dict.get(ctx_p2, UNK_IDX)] * sen_len
-
- # 谓词上下文区域标记,是一个二值特征
- marks = mark.split()
- mark_slot = [int(w) for w in marks]
-
- label_list = label.split()
- label_slot = [settings.label_dict.get(w) for w in label_list]
- yield {
- 'word_data': word_slot,
- 'ctx_n2_data': ctx_n2_slot,
- 'ctx_n1_data': ctx_n1_slot,
- 'ctx_0_data': ctx_0_slot,
- 'ctx_p1_data': ctx_p1_slot,
- 'ctx_p2_data': ctx_p2_slot,
- 'verb_data': predicate_slot,
- 'mark_data': mark_slot,
- 'target': label_slot
- }
- ```
+除数据之外,我们同时提供了以下资源:
-## 模型配置说明
+| 文件名称 | 说明 |
+|---|---|
+| word_dict | 输入句子的词典,共计44068个词 |
+| label_dict | 标记的词典,共计106个标记 |
+| predicate_dict | 谓词的词典,共计3162个词 |
+| emb | 一个训练好的词表,32维 |
-### 数据定义
+我们在英文维基百科上训练语言模型得到了一份词向量用来初始化SRL模型。在SRL模型训练过程中,词向量不再被更新。关于语言模型和词向量可以参考[词向量](https://github.com/PaddlePaddle/book/blob/develop/word2vec/README.md) 这篇教程。我们训练语言模型的语料共有995,000,000个token,词典大小控制为4900,000词。CoNLL 2005训练语料中有5%的词不在这4900,000个词中,我们将它们全部看作未登录词,用``表示。
-首先通过 define_py_data_sources2 从dataprovider中读入数据。配置文件中会读取三个字典:输入文本序列的字典、标记的字典、谓词的字典,并传给data provider,data provider会利用这三个字典,将相应的文本输入转换成one-hot序列。
+获取词典,打印词典大小:
```python
-define_py_data_sources2(
- train_list=train_list_file,
- test_list=test_list_file,
- module='dataprovider',
- obj='process',
- args={
- 'word_dict': word_dict, # 输入文本序列的字典
- 'label_dict': label_dict, # 标记的字典
- 'predicate_dict': predicate_dict # 谓词的词典
- }
-)
-```
-### 算法配置
+import paddle.v2 as paddle
+import paddle.v2.dataset.conll05 as conll05
-在这里,我们指定了模型的训练参数,选择了$L_2$正则、学习率和batch size,并使用带Momentum的随机梯度下降法作为优化算法。
+word_dict, verb_dict, label_dict = conll05.get_dict()
+word_dict_len = len(word_dict)
+label_dict_len = len(label_dict)
+pred_len = len(verb_dict)
-```python
-settings(
- batch_size=150,
- learning_method=MomentumOptimizer(momentum=0),
- learning_rate=2e-2,
- regularization=L2Regularization(8e-4),
- model_average=ModelAverage(average_window=0.5, max_average_window=10000)
-)
+print len(word_dict_len)
+print len(label_dict_len)
+print len(pred_len)
```
-### 模型结构
+## 模型配置说明
1. 定义输入数据维度及模型超参数。
@@ -329,175 +252,239 @@ settings(
hidden_dim = 512 # LSTM隐层向量的维度 : 512 / 4
depth = 8 # 栈式LSTM的深度
- word = data_layer(name='word_data', size=word_dict_len)
- predicate = data_layer(name='verb_data', size=pred_len)
-
- ctx_n2 = data_layer(name='ctx_n2_data', size=word_dict_len)
- ctx_n1 = data_layer(name='ctx_n1_data', size=word_dict_len)
- ctx_0 = data_layer(name='ctx_0_data', size=word_dict_len)
- ctx_p1 = data_layer(name='ctx_p1_data', size=word_dict_len)
- ctx_p2 = data_layer(name='ctx_p2_data', size=word_dict_len)
- mark = data_layer(name='mark_data', size=mark_dict_len)
-
- if not is_predict:
- target = data_layer(name='target', size=label_dict_len) # 标记序列只在训练和测试流程中定义
+ # 一条样本总共9个特征,下面定义了9个data层,每个层类型为integer_value_sequence,表示整数ID的序列类型.
+ def d_type(size):
+ return paddle.data_type.integer_value_sequence(size)
+
+ # 句子序列
+ word = paddle.layer.data(name='word_data', type=d_type(word_dict_len))
+ # 谓词
+ predicate = paddle.layer.data(name='verb_data', type=d_type(pred_len))
+
+ # 谓词上下文5个特征
+ ctx_n2 = paddle.layer.data(name='ctx_n2_data', type=d_type(word_dict_len))
+ ctx_n1 = paddle.layer.data(name='ctx_n1_data', type=d_type(word_dict_len))
+ ctx_0 = paddle.layer.data(name='ctx_0_data', type=d_type(word_dict_len))
+ ctx_p1 = paddle.layer.data(name='ctx_p1_data', type=d_type(word_dict_len))
+ ctx_p2 = paddle.layer.data(name='ctx_p2_data', type=d_type(word_dict_len))
+
+ # 谓词上下区域标志
+ mark = paddle.layer.data(name='mark_data', type=d_type(mark_dict_len))
+
+ # 标注序列
+ target = paddle.layer.data(name='target', type=d_type(label_dict_len))
```
-这里需要特别说明的是hidden_dim = 512指定了LSTM隐层向量的维度为128维,关于这一点请参考PaddlePaddle官方文档中[lstmemory](http://www.paddlepaddle.org/doc/ui/api/trainer_config_helpers/layers.html#lstmemory)的说明。
+
+ 这里需要特别说明的是hidden_dim = 512指定了LSTM隐层向量的维度为128维,关于这一点请参考PaddlePaddle官方文档中[lstmemory](http://www.paddlepaddle.org/doc/ui/api/trainer_config_helpers/layers.html#lstmemory)的说明。
2. 将句子序列、谓词、谓词上下文、谓词上下文区域标记通过词表,转换为实向量表示的词向量序列。
- ```python
-
- # 在本教程中,我们加载了预训练的词向量,这里设置了:is_static=True
- # is_static 为 True 时保证了在训练 SRL 模型过程中,词表不再更新
- emb_para = ParameterAttribute(name='emb', initial_std=0., is_static=True)
-
- word_input = [word, ctx_n2, ctx_n1, ctx_0, ctx_p1, ctx_p2]
- emb_layers = [
- embedding_layer(
- size=word_dim, input=x, param_attr=emb_para) for x in word_input
- ]
- emb_layers.append(predicate_embedding)
- mark_embedding = embedding_layer(
- name='word_ctx-in_embedding', size=mark_dim, input=mark, param_attr=std_0)
- emb_layers.append(mark_embedding)
+ ```python
+
+ # 在本教程中,我们加载了预训练的词向量,这里设置了:is_static=True
+ # is_static 为 True 时保证了在训练 SRL 模型过程中,词表不再更新
+ emb_para = paddle.attr.Param(name='emb', initial_std=0., is_static=True)
+ # 设置超参数
+ default_std = 1 / math.sqrt(hidden_dim) / 3.0
+ std_default = paddle.attr.Param(initial_std=default_std)
+ std_0 = paddle.attr.Param(initial_std=0.)
+
+ predicate_embedding = paddle.layer.embedding(
+ size=word_dim,
+ input=predicate,
+ param_attr=paddle.attr.Param(
+ name='vemb', initial_std=default_std))
+ mark_embedding = paddle.layer.embedding(
+ size=mark_dim, input=mark, param_attr=std_0)
+
+ word_input = [word, ctx_n2, ctx_n1, ctx_0, ctx_p1, ctx_p2]
+ emb_layers = [
+ paddle.layer.embedding(
+ size=word_dim, input=x, param_attr=emb_para) for x in word_input
+ ]
+ emb_layers.append(predicate_embedding)
+ emb_layers.append(mark_embedding)
```
3. 8个LSTM单元以“正向/反向”的顺序对所有输入序列进行学习。
- ```python
- # std_0 指定的参数以均值为0的高斯分布初始化,用在LSTM的bias初始化中
- std_0 = ParameterAttribute(initial_std=0.)
-
- hidden_0 = mixed_layer(
- name='hidden0',
- size=hidden_dim,
- bias_attr=std_default,
- input=[
- full_matrix_projection(
- input=emb, param_attr=std_default) for emb in emb_layers
- ])
- lstm_0 = lstmemory(
- name='lstm0',
- input=hidden_0,
- act=ReluActivation(),
- gate_act=SigmoidActivation(),
- state_act=SigmoidActivation(),
- bias_attr=std_0,
- param_attr=lstm_para_attr)
- input_tmp = [hidden_0, lstm_0]
-
- for i in range(1, depth):
- mix_hidden = mixed_layer(
- name='hidden' + str(i),
- size=hidden_dim,
- bias_attr=std_default,
- input=[
- full_matrix_projection(
- input=input_tmp[0], param_attr=hidden_para_attr),
- full_matrix_projection(
- input=input_tmp[1], param_attr=lstm_para_attr)
- ])
- lstm = lstmemory(
- name='lstm' + str(i),
- input=mix_hidden,
- act=ReluActivation(),
- gate_act=SigmoidActivation(),
- state_act=SigmoidActivation(),
- reverse=((i % 2) == 1),
- bias_attr=std_0,
- param_attr=lstm_para_attr)
-
- input_tmp = [mix_hidden, lstm]
+ ```python
+ hidden_0 = paddle.layer.mixed(
+ size=hidden_dim,
+ bias_attr=std_default,
+ input=[
+ paddle.layer.full_matrix_projection(
+ input=emb, param_attr=std_default) for emb in emb_layers
+ ])
+
+ mix_hidden_lr = 1e-3
+ lstm_para_attr = paddle.attr.Param(initial_std=0.0, learning_rate=1.0)
+ hidden_para_attr = paddle.attr.Param(
+ initial_std=default_std, learning_rate=mix_hidden_lr)
+
+ lstm_0 = paddle.layer.lstmemory(
+ input=hidden_0,
+ act=paddle.activation.Relu(),
+ gate_act=paddle.activation.Sigmoid(),
+ state_act=paddle.activation.Sigmoid(),
+ bias_attr=std_0,
+ param_attr=lstm_para_attr)
+
+ #stack L-LSTM and R-LSTM with direct edges
+ input_tmp = [hidden_0, lstm_0]
+
+ for i in range(1, depth):
+ mix_hidden = paddle.layer.mixed(
+ size=hidden_dim,
+ bias_attr=std_default,
+ input=[
+ paddle.layer.full_matrix_projection(
+ input=input_tmp[0], param_attr=hidden_para_attr),
+ paddle.layer.full_matrix_projection(
+ input=input_tmp[1], param_attr=lstm_para_attr)
+ ])
+
+ lstm = paddle.layer.lstmemory(
+ input=mix_hidden,
+ act=paddle.activation.Relu(),
+ gate_act=paddle.activation.Sigmoid(),
+ state_act=paddle.activation.Sigmoid(),
+ reverse=((i % 2) == 1),
+ bias_attr=std_0,
+ param_attr=lstm_para_attr)
+
+ input_tmp = [mix_hidden, lstm]
```
4. 取最后一个栈式LSTM的输出和这个LSTM单元的输入到隐层映射,经过一个全连接层映射到标记字典的维度,得到最终的特征向量表示。
```python
- feature_out = mixed_layer(
- name='output',
- size=label_dict_len,
- bias_attr=std_default,
- input=[
- full_matrix_projection(
- input=input_tmp[0], param_attr=hidden_para_attr),
- full_matrix_projection(
- input=input_tmp[1], param_attr=lstm_para_attr)
- ], )
+ feature_out = paddle.layer.mixed(
+ size=label_dict_len,
+ bias_attr=std_default,
+ input=[
+ paddle.layer.full_matrix_projection(
+ input=input_tmp[0], param_attr=hidden_para_attr),
+ paddle.layer.full_matrix_projection(
+ input=input_tmp[1], param_attr=lstm_para_attr)
+ ], )
```
-5. CRF层在网络的末端,完成序列标注。
+5. 网络的末端定义CRF层计算损失(cost),指定参数名字为 `crfw`,该层需要输入正确的数据标签(target)。
```python
- crf_l = crf_layer(
- name='crf',
- size=label_dict_len,
- input=feature_out,
- label=target,
- param_attr=ParameterAttribute(
- name='crfw', initial_std=default_std, learning_rate=mix_hidden_lr))
+ crf_cost = paddle.layer.crf(
+ size=label_dict_len,
+ input=feature_out,
+ label=target,
+ param_attr=paddle.attr.Param(
+ name='crfw',
+ initial_std=default_std,
+ learning_rate=mix_hidden_lr))
```
+6. CRF译码层和CRF层参数名字相同,即共享权重。如果输入了正确的数据标签(target),会统计错误标签的个数,可以用来评估模型。如果没有输入正确的数据标签,该层可以推到出最优解,可以用来预测模型。
+
+ ```python
+ crf_dec = paddle.layer.crf_decoding(
+ name='crf_dec_l',
+ size=label_dict_len,
+ input=feature_out,
+ label=target,
+ param_attr=paddle.attr.Param(name='crfw'))
+ ```
+
## 训练模型
-执行`sh train.sh`进行模型的训练,其中指定了总共需要训练150个pass。
-
-```bash
-paddle train \
- --config=./db_lstm.py \
- --save_dir=./output \
- --trainer_count=1 \
- --dot_period=500 \
- --log_period=10 \
- --num_passes=200 \
- --use_gpu=false \
- --show_parameter_stats_period=10 \
- --test_all_data_in_one_period=1 \
-2>&1 | tee 'train.log'
+
+### 定义参数
+
+首先依据模型配置的`crf_cost`定义模型参数。
+
+```python
+# create parameters
+parameters = paddle.parameters.create([crf_cost, crf_dec])
```
-训练日志示例如下。
+可以打印参数名字,如果在网络配置中没有指定名字,则默认生成。
+
+```python
+print parameters.keys()
+```
-```text
-I1224 18:11:53.661479 1433 TrainerInternal.cpp:165] Batch=880 samples=145305 AvgCost=2.11541 CurrentCost=1.8645 Eval: __sum_evaluator_0__=0.607942 CurrentEval: __sum_evaluator_0__=0.59322
-I1224 18:11:55.254021 1433 TrainerInternal.cpp:165] Batch=885 samples=146134 AvgCost=2.11408 CurrentCost=1.88156 Eval: __sum_evaluator_0__=0.607299 CurrentEval: __sum_evaluator_0__=0.494572
-I1224 18:11:56.867604 1433 TrainerInternal.cpp:165] Batch=890 samples=146987 AvgCost=2.11277 CurrentCost=1.88839 Eval: __sum_evaluator_0__=0.607203 CurrentEval: __sum_evaluator_0__=0.590856
-I1224 18:11:58.424069 1433 TrainerInternal.cpp:165] Batch=895 samples=147793 AvgCost=2.11129 CurrentCost=1.84247 Eval: __sum_evaluator_0__=0.607099 CurrentEval: __sum_evaluator_0__=0.588089
-I1224 18:12:00.006893 1433 TrainerInternal.cpp:165] Batch=900 samples=148611 AvgCost=2.11148 CurrentCost=2.14526 Eval: __sum_evaluator_0__=0.607882 CurrentEval: __sum_evaluator_0__=0.749389
-I1224 18:12:00.164089 1433 TrainerInternal.cpp:181] Pass=0 Batch=901 samples=148647 AvgCost=2.11195 Eval: __sum_evaluator_0__=0.60793
+如上文提到,我们用基于英文维基百科训练好的词向量来初始化序列输入、谓词上下文总共6个特征的embedding层参数,在训练中不更新。
+
+```python
+# 这里加载PaddlePaddle上版保存的二进制模型
+def load_parameter(file_name, h, w):
+ with open(file_name, 'rb') as f:
+ f.read(16)
+ return np.fromfile(f, dtype=np.float32).reshape(h, w)
+parameters.set('emb', load_parameter(conll05.get_embedding(), 44068, 32))
```
-经过150个 pass 后,得到平均 error 约为 0.0516055。
-## 应用模型
+### 构造训练(Trainer)
+
+然后根据网络拓扑结构和模型参数来构造出trainer用来训练,在构造时还需指定优化方法,这里使用最基本的SGD方法(momentum设置为0),同时设定了学习率、正则等。
+
+```python
+# create optimizer
+optimizer = paddle.optimizer.Momentum(
+ momentum=0,
+ learning_rate=2e-2,
+ regularization=paddle.optimizer.L2Regularization(rate=8e-4),
+ model_average=paddle.optimizer.ModelAverage(
+ average_window=0.5, max_average_window=10000), )
+
+trainer = paddle.trainer.SGD(cost=crf_cost,
+ parameters=parameters,
+ update_equation=optimizer)
+```
-训练好的$N$个pass,会得到$N$个模型,我们需要从中选择一个最优模型进行预测。通常做法是在开发集上进行调参,并基于我们关心的某个性能指标选择最优模型。本教程的`predict.sh`脚本简单地选择了测试集上标记错误最少的那个pass(这里是pass-00100)用于预测。
+### 训练
-预测时,我们需要将配置中的 `crf_layer` 删掉,替换为 `crf_decoding_layer`,如下所示:
+数据介绍部分提到CoNLL 2005训练集付费,这里我们使用测试集训练供大家学习。`conll05.test()`每次产生一条样本,包含9个特征,shuffle和组完batch后作为训练的输入。
```python
-crf_dec_l = crf_decoding_layer(
- name='crf_dec_l',
- size=label_dict_len,
- input=feature_out,
- param_attr=ParameterAttribute(name='crfw'))
+reader = paddle.batch(
+ paddle.reader.shuffle(
+ conll05.test(), buf_size=8192), batch_size=20)
```
-运行`python predict.py`脚本,便可使用指定的模型进行预测。
-
-```bash
-python predict.py
- -c db_lstm.py # 指定配置文件
- -w output/pass-00100 # 指定预测使用的模型所在的路径
- -l data/targetDict.txt # 指定标记的字典
- -p data/verbDict.txt # 指定谓词的词典
- -d data/wordDict.txt # 指定输入文本序列的字典
- -i data/feature # 指定输入数据的路径
- -o predict.res # 指定标记结果输出到文件的路径
+通过`feeding`来指定每一个数据和data_layer的对应关系。 例如 下面`feeding`表示: `conll05.test()`产生数据的第0列对应`word_data`层的特征。
+
+
+```python
+feeding = {
+ 'word_data': 0,
+ 'ctx_n2_data': 1,
+ 'ctx_n1_data': 2,
+ 'ctx_0_data': 3,
+ 'ctx_p1_data': 4,
+ 'ctx_p2_data': 5,
+ 'verb_data': 6,
+ 'mark_data': 7,
+ 'target': 8
+}
```
-预测结束后,在 - o 参数所指定的标记结果文件中,我们会得到如下格式的输出:每行是一条样本,以 “\t” 分隔的 2 列,第一列是输入文本,第二列是标记的结果。通过BIO标记可以直接得到论元的语义角色标签。
+可以使用`event_handler`回调函数来观察训练过程,或进行测试等。这里我们打印了训练过程的cost,该回调函数是`trainer.train`函数里设定。
-```text
-The interest-only securities were priced at 35 1\/2 to yield 10.72 % . B-A0 I-A0 I-A0 O O O O O O B-V B-A1 I-A1 O
+```python
+def event_handler(event):
+ if isinstance(event, paddle.event.EndIteration):
+ if event.batch_id % 100 == 0:
+ print "Pass %d, Batch %d, Cost %f" % (
+ event.pass_id, event.batch_id, event.cost)
+```
+
+通过`trainer.train`函数训练:
+
+```python
+trainer.train(
+ reader=reader,
+ event_handler=event_handler,
+ num_passes=10000,
+ feeding=feeding)
```
## 总结
diff --git a/recognize_digits/README.md b/recognize_digits/README.md
index 6423f6af121e8797f1f0999e093e5d320f20ad02..5970ff46835c0e3904a8491753df343e9e34a708 100644
--- a/recognize_digits/README.md
+++ b/recognize_digits/README.md
@@ -76,30 +76,28 @@ Softmax回归模型采用了最简单的两层神经网络,即只有输入层
#### 卷积层
-卷积层是卷积神经网络的核心基石。在图像识别里我们提到的卷积是二维卷积,即离散二维滤波器(也称作卷积核)与二维图像做卷积操作,简单的讲是二维滤波器滑动到二维图像上所有位置,并在每个位置上与该像素点及其领域像素点做内积。卷积操作被广泛应用与图像处理领域,不同卷积核可以提取不同的特征,例如边沿、线性、角等特征。在深层卷积神经网络中,通过卷积操作可以提取出图像低级到复杂的特征。
+卷积层是卷积神经网络的核心基石。在图像识别里我们提到的卷积是二维卷积,即离散二维滤波器(也称作卷积核)与二维图像做卷积操作,简单的讲是二维滤波器滑动到二维图像上所有位置,并在每个位置上与该像素点及其领域像素点做内积。卷积操作被广泛应用与图像处理领域,不同卷积核可以提取不同的特征,例如边沿、线性、角等特征。在深层卷积神经网络中,通过卷积操作可以提取出图像低级到复杂的特征。
图4. 卷积层图片
-图4给出一个卷积计算过程的示例图,输入图像大小为$H=5,W=5,D=3$,即$5x5$大小的3通道(RGB,也称作深度)彩色图像。这个示例图中包含两(用$K$表示)组卷积核,即图中$Filter W_0$和$Filter W_1$,在卷积计算中,通常对不同的输入通道采用不同的卷积核,如图示例中每组卷积核包含3($D$)个$3x3$(用$FXF$表示)大小的卷积核。另外,这个示例中卷积核在图像的水平方向($W$方向)和垂直方向($H$方向)的滑动步长为2(用$S$表示);对输入图像周围各填充1(用$P$表示)个0,即图中输入层原始数据为蓝色部分,灰色部分是进行了大小为1的扩展,用0来进行扩展。经过卷积操作得到输出为$3x3x2$(用$H_{o}xW_{o}xK$表示)大小的特征图,即$3x3$大小的2通道特征图,其中$H_o$计算公式为:$H_o = (H - F + 2*P)/S + 1$,$W_o$同理。 而输出特征图中的每个像素,是每组滤波器与输入图像每个特征图的内积再求和,再加上偏置($b_o$),偏置通常对于每个输出特征图是共享的。例如图中输出特征图`o[:,:,0]`中的第一个$2$计算如下:
+图4给出一个卷积计算过程的示例图,输入图像大小为$H=5,W=5,D=3$,即$5 \times 5$大小的3通道(RGB,也称作深度)彩色图像。这个示例图中包含两(用$K$表示)组卷积核,即图中滤波器$W_0$和$W_1$。在卷积计算中,通常对不同的输入通道采用不同的卷积核,如图示例中每组卷积核包含($D=3)$个$3 \times 3$(用$F \times F$表示)大小的卷积核。另外,这个示例中卷积核在图像的水平方向($W$方向)和垂直方向($H$方向)的滑动步长为2(用$S$表示);对输入图像周围各填充1(用$P$表示)个0,即图中输入层原始数据为蓝色部分,灰色部分是进行了大小为1的扩展,用0来进行扩展。经过卷积操作得到输出为$3 \times 3 \times 2$(用$H_{o} \times W_{o} \times K$表示)大小的特征图,即$3 \times 3$大小的2通道特征图,其中$H_o$计算公式为:$H_o = (H - F + 2 \times P)/S + 1$,$W_o$同理。 而输出特征图中的每个像素,是每组滤波器与输入图像每个特征图的内积再求和,再加上偏置$b_o$,偏置通常对于每个输出特征图是共享的。例如图中输出特征图$o[:,:,0]$中的第一个$2$计算如下:
-\begin{align}
-o[0,0,0] = \sum x[0:3,0:3,0] * w_{0}[:,:,0]] + \sum x[0:3,0:3,1] * w_{0}[:,:,1]] + \sum x[0:3,0:3,2] * w_{0}[:,:,2]] + b_0 = 2 \\\\
-\sum x[0:3,0:3,0] * w_{0}[:,:,0]] & = 0*1 + 0*1 + 0*1 + 0*1 + 1*1 + 2*(-1) + 0*(-1) + 0*1 + 0*(-1) = -1 \\\\
-\sum x[0:3,0:3,1] * w_{0}[:,:,1]] & = 0*0 + 0*1 + 0*1 + 0*(-1) + 0*0 + 1*1 + 0*1 + 2*0 + 1*1 = 2 \\\\
-\sum x[0:3,0:3,2] * w_{0}[:,:,2]] & = 0*(-1) + 0*1 + 0*(-1) + 0*0 + 1*1 + 1*0 + 0*(-1) + 1*0 + 1*(-1) = 0 \\\\
-b_0 & = 1\\\\
-\end{align}
+$$ o[0,0,0] = \sum x[0:3,0:3,0] * w_{0}[:,:,0]] + \sum x[0:3,0:3,1] * w_{0}[:,:,1]] + \sum x[0:3,0:3,2] * w_{0}[:,:,2]] + b_0 = 2 $$
+$$ \sum x[0:3,0:3,0] * w_{0}[:,:,0]] = 0*1 + 0*1 + 0*1 + 0*1 + 1*1 + 2*(-1) + 0*(-1) + 0*1 + 0*(-1) = -1 $$
+$$ \sum x[0:3,0:3,1] * w_{0}[:,:,1]] = 0*0 + 0*1 + 0*1 + 0*(-1) + 0*0 + 1*1 + 0*1 + 2*0 + 1*1 = 2 $$
+$$ \sum x[0:3,0:3,2] * w_{0}[:,:,2]] = 0*(-1) + 0*1 + 0*(-1) + 0*0 + 1*1 + 1*0 + 0*(-1) + 1*0 + 1*(-1) = 0 $$
+$$ b_0 = 1 $$
-在卷积操作中卷积核是可学习的参数,经过上面示例介绍,每层卷积的参数大小为$DxFxFxK$。在多层感知器模型中,神经元通常是全部连接,参数较多。而卷积层的参数较少,这也是由卷积层的主要特性即局部连接和共享权重所决定。
+在卷积操作中卷积核是可学习的参数,经过上面示例介绍,每层卷积的参数大小为$D \times F \times F \times K$。在多层感知器模型中,神经元通常是全部连接,参数较多。而卷积层的参数较少,这也是由卷积层的主要特性即局部连接和共享权重所决定。
-- 局部连接:每个神经元仅与输入神经元的一块区域连接,这块局部区域称作感受野(receptive field)。在图像卷积操作中,即神经元在空间维度(spatial dimension,即上图示例H和W所在的平面)是局部连接,但在深度上是全部连接。对于二维图像本身而言,也是局部像素关联较强。这种局部连接保证了学习后的过滤器能够对于局部的输入特征有最强的响应。局部连接的思想,也是受启发于生物学里面的视觉系统结构,视觉皮层的神经元就是局部接受信息的。
+- 局部连接:每个神经元仅与输入神经元的一块区域连接,这块局部区域称作感受野(receptive field)。在图像卷积操作中,即神经元在空间维度(spatial dimension,即上图示例H和W所在的平面)是局部连接,但在深度上是全部连接。对于二维图像本身而言,也是局部像素关联较强。这种局部连接保证了学习后的过滤器能够对于局部的输入特征有最强的响应。局部连接的思想,也是受启发于生物学里面的视觉系统结构,视觉皮层的神经元就是局部接受信息的。
- 权重共享:计算同一个深度切片的神经元时采用的滤波器是共享的。例如图4中计算$o[:,:,0]$的每个每个神经元的滤波器均相同,都为$W_0$,这样可以很大程度上减少参数。共享权重在一定程度上讲是有意义的,例如图片的底层边缘特征与特征在图中的具体位置无关。但是在一些场景中是无意的,比如输入的图片是人脸,眼睛和头发位于不同的位置,希望在不同的位置学到不同的特征 (参考[斯坦福大学公开课]( http://cs231n.github.io/convolutional-networks/))。请注意权重只是对于同一深度切片的神经元是共享的,在卷积层,通常采用多组卷积核提取不同特征,即对应不同深度切片的特征,不同深度切片的神经元权重是不共享。另外,偏重对同一深度切片的所有神经元都是共享的。
-通过介绍卷积计算过程及其特性,可以看出卷积是线性操作,并具有平移不变性(shift-invariant),平移不变性即在图像每个位置执行相同的操作。卷积层的局部连接和权重共享使得需要学习的参数大大减小,这样也有利于训练较大卷积神经网络。
+通过介绍卷积计算过程及其特性,可以看出卷积是线性操作,并具有平移不变性(shift-invariant),平移不变性即在图像每个位置执行相同的操作。卷积层的局部连接和权重共享使得需要学习的参数大大减小,这样也有利于训练较大卷积神经网络。
#### 池化层
diff --git a/recognize_digits/index.html b/recognize_digits/index.html
index d34d1a7cbd87df66060692c63c5a8e2339c6e3ba..a3fa4d947a4f11df9b777f02ff22876607e786c8 100644
--- a/recognize_digits/index.html
+++ b/recognize_digits/index.html
@@ -108,16 +108,37 @@ Softmax回归模型采用了最简单的两层神经网络,即只有输入层
### 卷积神经网络(Convolutional Neural Network, CNN)
+在多层感知器模型中,将图像展开成一维向量输入到网络中,忽略了图像的位置和结构信息,而卷积神经网络能够更好的利用图像的结构信息。[LeNet-5](http://yann.lecun.com/exdb/lenet/)是一个较简单的卷积神经网络。图6显示了其结构:输入的二维图像,先经过两次卷积层到池化层,再经过全连接层,最后使用softmax分类作为输出层。下面我们主要介绍卷积层和池化层。
+
+
+
+图6. LeNet-5卷积神经网络结构
+
+
#### 卷积层
+卷积层是卷积神经网络的核心基石。在图像识别里我们提到的卷积是二维卷积,即离散二维滤波器(也称作卷积核)与二维图像做卷积操作,简单的讲是二维滤波器滑动到二维图像上所有位置,并在每个位置上与该像素点及其领域像素点做内积。卷积操作被广泛应用与图像处理领域,不同卷积核可以提取不同的特征,例如边沿、线性、角等特征。在深层卷积神经网络中,通过卷积操作可以提取出图像低级到复杂的特征。
+
-
+
图4. 卷积层图片
-卷积层是卷积神经网络的核心基石。该层的参数由一组可学习的过滤器(也叫作卷积核)组成。在前向过程中,每个卷积核在输入层进行横向和纵向的扫描,与输入层对应扫描位置进行卷积,得到的结果加上偏置并用相应的激活函数进行激活,结果能够得到一个二维的激活图(activation map)。每个特定的卷积核都能得到特定的激活图(activation map),如有的卷积核可能对识别边角,有的可能识别圆圈,那这些卷积核可能对于对应的特征响应要强。
+图4给出一个卷积计算过程的示例图,输入图像大小为$H=5,W=5,D=3$,即$5 \times 5$大小的3通道(RGB,也称作深度)彩色图像。这个示例图中包含两(用$K$表示)组卷积核,即图中滤波器$W_0$和$W_1$。在卷积计算中,通常对不同的输入通道采用不同的卷积核,如图示例中每组卷积核包含($D=3)$个$3 \times 3$(用$F \times F$表示)大小的卷积核。另外,这个示例中卷积核在图像的水平方向($W$方向)和垂直方向($H$方向)的滑动步长为2(用$S$表示);对输入图像周围各填充1(用$P$表示)个0,即图中输入层原始数据为蓝色部分,灰色部分是进行了大小为1的扩展,用0来进行扩展。经过卷积操作得到输出为$3 \times 3 \times 2$(用$H_{o} \times W_{o} \times K$表示)大小的特征图,即$3 \times 3$大小的2通道特征图,其中$H_o$计算公式为:$H_o = (H - F + 2 \times P)/S + 1$,$W_o$同理。 而输出特征图中的每个像素,是每组滤波器与输入图像每个特征图的内积再求和,再加上偏置$b_o$,偏置通常对于每个输出特征图是共享的。例如图中输出特征图$o[:,:,0]$中的第一个$2$计算如下:
+
+$$ o[0,0,0] = \sum x[0:3,0:3,0] * w_{0}[:,:,0]] + \sum x[0:3,0:3,1] * w_{0}[:,:,1]] + \sum x[0:3,0:3,2] * w_{0}[:,:,2]] + b_0 = 2 $$
+$$ \sum x[0:3,0:3,0] * w_{0}[:,:,0]] = 0*1 + 0*1 + 0*1 + 0*1 + 1*1 + 2*(-1) + 0*(-1) + 0*1 + 0*(-1) = -1 $$
+$$ \sum x[0:3,0:3,1] * w_{0}[:,:,1]] = 0*0 + 0*1 + 0*1 + 0*(-1) + 0*0 + 1*1 + 0*1 + 2*0 + 1*1 = 2 $$
+$$ \sum x[0:3,0:3,2] * w_{0}[:,:,2]] = 0*(-1) + 0*1 + 0*(-1) + 0*0 + 1*1 + 1*0 + 0*(-1) + 1*0 + 1*(-1) = 0 $$
+$$ b_0 = 1 $$
+
+在卷积操作中卷积核是可学习的参数,经过上面示例介绍,每层卷积的参数大小为$D \times F \times F \times K$。在多层感知器模型中,神经元通常是全部连接,参数较多。而卷积层的参数较少,这也是由卷积层的主要特性即局部连接和共享权重所决定。
+
+- 局部连接:每个神经元仅与输入神经元的一块区域连接,这块局部区域称作感受野(receptive field)。在图像卷积操作中,即神经元在空间维度(spatial dimension,即上图示例H和W所在的平面)是局部连接,但在深度上是全部连接。对于二维图像本身而言,也是局部像素关联较强。这种局部连接保证了学习后的过滤器能够对于局部的输入特征有最强的响应。局部连接的思想,也是受启发于生物学里面的视觉系统结构,视觉皮层的神经元就是局部接受信息的。
-图4是卷积层的一个动态图。由于3D量难以表示,所有的3D量(输入的3D量(蓝色),权重3D量(红色),输出3D量(绿色))通过将深度在行上堆叠来表示。如图4,输入层是$W_1=5,H_1=5,D_1=3$,我们常见的彩色图片其实就是类似这样的输入层,彩色图片的宽和高对应这里的$W_1$和$H_1$,而彩色图片有RGB三个颜色通道,对应这里的$D_1$;卷积层的参数为$K=2,F=3,S=2,P=1$,这里的$K$是卷积核的数量,如图4中有$Filter W_0$和$Filter W_1$两个卷积核,$F$对应卷积核的大小,图中$W0$和$W1$在每一层深度上都是$3\times3$的矩阵,$S$对应卷积核扫描的步长,从动态图中可以看到,方框每次左移或下移2个单位,$P$对应Padding扩展,是对输入层的扩展,图中输入层,原始数据为蓝色部分,可以看到灰色部分是进行了大小为1的扩展,用0来进行扩展;图4的动态可视化对输出层结果(绿色)进行迭代,显示每个输出元素是通过将突出显示的输入(蓝色)与滤波器(红色)进行元素相乘,将其相加,然后通过偏置抵消结果来计算的。
+- 权重共享:计算同一个深度切片的神经元时采用的滤波器是共享的。例如图4中计算$o[:,:,0]$的每个每个神经元的滤波器均相同,都为$W_0$,这样可以很大程度上减少参数。共享权重在一定程度上讲是有意义的,例如图片的底层边缘特征与特征在图中的具体位置无关。但是在一些场景中是无意的,比如输入的图片是人脸,眼睛和头发位于不同的位置,希望在不同的位置学到不同的特征 (参考[斯坦福大学公开课]( http://cs231n.github.io/convolutional-networks/))。请注意权重只是对于同一深度切片的神经元是共享的,在卷积层,通常采用多组卷积核提取不同特征,即对应不同深度切片的特征,不同深度切片的神经元权重是不共享。另外,偏重对同一深度切片的所有神经元都是共享的。
+
+通过介绍卷积计算过程及其特性,可以看出卷积是线性操作,并具有平移不变性(shift-invariant),平移不变性即在图像每个位置执行相同的操作。卷积层的局部连接和权重共享使得需要学习的参数大大减小,这样也有利于训练较大卷积神经网络。
#### 池化层
@@ -128,19 +149,6 @@ Softmax回归模型采用了最简单的两层神经网络,即只有输入层
池化是非线性下采样的一种形式,主要作用是通过减少网络的参数来减小计算量,并且能够在一定程度上控制过拟合。通常在卷积层的后面会加上一个池化层。池化包括最大池化、平均池化等。其中最大池化是用不重叠的矩形框将输入层分成不同的区域,对于每个矩形框的数取最大值作为输出层,如图5所示。
-#### LeNet-5网络
-
-
-
-图6. LeNet-5卷积神经网络结构
-
-
-[LeNet-5](http://yann.lecun.com/exdb/lenet/)是一个最简单的卷积神经网络。图6显示了其结构:输入的二维图像,先经过两次卷积层到池化层,再经过全连接层,最后使用softmax分类作为输出层。卷积的如下三个特性,决定了LeNet-5能比同样使用全连接层的多层感知器更好地识别图像:
-
-- 神经元的三维特性: 卷积层的神经元在宽度、高度和深度上进行了组织排列。每一层的神经元仅仅与前一层的一块小区域连接,这块小区域被称为感受野(receptive field)。
-- 局部连接:CNN通过在相邻层的神经元之间实施局部连接模式来利用空间局部相关性。这样的结构保证了学习后的过滤器能够对于局部的输入特征有最强的响应。堆叠许多这样的层导致非线性“过滤器”变得越来越“全局”。这允许网络首先创建输入的小部分的良好表示,然后从它们组合较大区域的表示。
-- 共享权重:在CNN中,每个滤波器在整个视野中重复扫描。 这些复制单元共享相同的参数化(权重向量和偏差)并形成特征图。 这意味着给定卷积层中的所有神经元检测完全相同的特征。 以这种方式的复制单元允许不管它们在视野中的位置都能检测到特征,从而构成平移不变性的性质。
-
更详细的关于卷积神经网络的具体知识可以参考[斯坦福大学公开课]( http://cs231n.github.io/convolutional-networks/ )和[图像分类](https://github.com/PaddlePaddle/book/blob/develop/image_classification/README.md)教程。
### 常见激活函数介绍
diff --git a/understand_sentiment/index.html b/understand_sentiment/index.html
index e1fc47435f3f745359cd9134b29bf2203b9b6476..aa2c6bc33d581db0a698f83bd704f7a4435fc853 100644
--- a/understand_sentiment/index.html
+++ b/understand_sentiment/index.html
@@ -134,372 +134,210 @@ $$ h_t=Recrurent(x_t,h_{t-1})$$
图4. 栈式双向LSTM用于文本分类
-## 数据准备
-### 数据介绍与下载
-我们以[IMDB情感分析数据集](http://ai.stanford.edu/%7Eamaas/data/sentiment/)为例进行介绍。IMDB数据集的训练集和测试集分别包含25000个已标注过的电影评论。其中,负面评论的得分小于等于4,正面评论的得分大于等于7,满分10分。您可以使用下面的脚本下载 IMDB 数椐集和[Moses](http://www.statmt.org/moses/)工具:
-```bash
-./data/get_imdb.sh
+## 示例程序
+### 数据集介绍
+我们以[IMDB情感分析数据集](http://ai.stanford.edu/%7Eamaas/data/sentiment/)为例进行介绍。IMDB数据集的训练集和测试集分别包含25000个已标注过的电影评论。其中,负面评论的得分小于等于4,正面评论的得分大于等于7,满分10分。
+```text
+aclImdb
+|- test
+ |-- neg
+ |-- pos
+|- train
+ |-- neg
+ |-- pos
```
-如果数椐获取成功,您将在目录```data```中看到下面的文件:
+Paddle在`dataset/imdb.py`中提实现了imdb数据集的自动下载和读取,并提供了读取字典、训练数据、测试数据等API。
```
-aclImdb get_imdb.sh imdb mosesdecoder-master
+import sys
+import paddle.trainer_config_helpers.attrs as attrs
+from paddle.trainer_config_helpers.poolings import MaxPooling
+import paddle.v2 as paddle
```
-
-* aclImdb: 从外部网站上下载的原始数椐集。
-* imdb: 仅包含训练和测试数椐集。
-* mosesdecoder-master: Moses 工具。
-
-### 数据预处理
-我们使用的预处理脚本为`preprocess.py`。该脚本会调用Moses工具中的`tokenizer.perl`脚本来切分单词和标点符号,并会将训练集随机打乱排序再构建字典。注意:我们只使用已标注的训练集和测试集。执行下面的命令就可以预处理数椐:
-
-```
-data_dir="./data/imdb"
-python preprocess.py -i $data_dir
-```
-
-运行成功后目录`./data/pre-imdb` 结构如下:
-
-```
-dict.txt labels.list test.list test_part_000 train.list train_part_000
-```
-
-* test\_part\_000 和 train\_part\_000: 所有标记的测试集和训练集,训练集已经随机打乱。
-* train.list 和 test.list: 训练集和测试集文件列表。
-* dict.txt: 利用训练集生成的字典。
-* labels.list: 类别标签列表,标签0表示负面评论,标签1表示正面评论。
-
-### 提供数据给PaddlePaddle
-PaddlePaddle可以读取Python写的传输数据脚本,下面`dataprovider.py`文件给出了完整例子,主要包括两部分:
-
-* hook: 定义文本信息、类别Id的数据类型。文本被定义为整数序列`integer_value_sequence`,类别被定义为整数`integer_value`。
-* process: 按行读取以`'\t\t'`分隔的类别ID和文本信息,并用yield关键字返回。
-
-```python
-from paddle.trainer.PyDataProvider2 import *
-
-def hook(settings, dictionary, **kwargs):
- settings.word_dict = dictionary
- settings.input_types = {
- 'word': integer_value_sequence(len(settings.word_dict)),
- 'label': integer_value(2)
- }
- settings.logger.info('dict len : %d' % (len(settings.word_dict)))
-
-
-@provider(init_hook=hook)
-def process(settings, file_name):
- with open(file_name, 'r') as fdata:
- for line_count, line in enumerate(fdata):
- label, comment = line.strip().split('\t\t')
- label = int(label)
- words = comment.split()
- word_slot = [
- settings.word_dict[w] for w in words if w in settings.word_dict
- ]
- yield {
- 'word': word_slot,
- 'label': label
- }
-```
-
-## 模型配置说明
-`trainer_config.py` 是一个配置文件的例子。
-### 数据定义
-```python
-from os.path import join as join_path
-from paddle.trainer_config_helpers import *
-# 是否是测试模式
-is_test = get_config_arg('is_test', bool, False)
-# 是否是预测模式
-is_predict = get_config_arg('is_predict', bool, False)
-
-# 数据路径
-data_dir = "./data/pre-imdb"
-# 文件名
-train_list = "train.list"
-test_list = "test.list"
-dict_file = "dict.txt"
-
-# 字典大小
-dict_dim = len(open(join_path(data_dir, "dict.txt")).readlines())
-# 类别个数
-class_dim = len(open(join_path(data_dir, 'labels.list')).readlines())
-
-if not is_predict:
- train_list = join_path(data_dir, train_list)
- test_list = join_path(data_dir, test_list)
- dict_file = join_path(data_dir, dict_file)
- train_list = train_list if not is_test else None
- # 构造字典
- word_dict = dict()
- with open(dict_file, 'r') as f:
- for i, line in enumerate(open(dict_file, 'r')):
- word_dict[line.split('\t')[0]] = i
- # 通过define_py_data_sources2函数从dataprovider.py中读取数据
- define_py_data_sources2(
- train_list,
- test_list,
- module="dataprovider",
- obj="process", # 指定生成数据的函数。
- args={'dictionary': word_dict}) # 额外的参数,这里指定词典。
-```
-
-### 算法配置
-
-```python
-settings(
- batch_size=128,
- learning_rate=2e-3,
- learning_method=AdamOptimizer(),
- regularization=L2Regularization(8e-4),
- gradient_clipping_threshold=25)
+## 配置模型
+在该示例中,我们实现了两种文本分类算法,分别基于上文所述的[文本卷积神经网络](#文本卷积神经网络(CNN))和[栈式双向LSTM](#栈式双向LSTM(Stacked Bidirectional LSTM))。
+### 文本卷积神经网络
```
-
-* 设置batch size大小为128。
-* 设置全局学习率。
-* 使用adam优化。
-* 设置L2正则。
-* 设置梯度截断(clipping)阈值。
-
-### 模型结构
-我们用PaddlePaddle实现了两种文本分类算法,分别基于上文所述的[文本卷积神经网络](#文本卷积神经网络(CNN))和[栈式双向LSTM](#栈式双向LSTM(Stacked Bidirectional LSTM))。
-#### 文本卷积神经网络的实现
-```python
def convolution_net(input_dim,
class_dim=2,
emb_dim=128,
- hid_dim=128,
- is_predict=False):
- # 网络输入:id表示的词序列,词典大小为input_dim
- data = data_layer("word", input_dim)
- # 将id表示的词序列映射为embedding序列
- emb = embedding_layer(input=data, size=emb_dim)
- # 卷积及最大化池操作,卷积核窗口大小为3
- conv_3 = sequence_conv_pool(input=emb, context_len=3, hidden_size=hid_dim)
- # 卷积及最大化池操作,卷积核窗口大小为4
- conv_4 = sequence_conv_pool(input=emb, context_len=4, hidden_size=hid_dim)
- # 将conv_3和conv_4拼接起来输入给softmax分类,类别数为class_dim
- output = fc_layer(
- input=[conv_3, conv_4], size=class_dim, act=SoftmaxActivation())
-
- if not is_predict:
- lbl = data_layer("label", 1) #网络输入:类别标签
- outputs(classification_cost(input=output, label=lbl))
- else:
- outputs(output)
+ hid_dim=128):
+ data = paddle.layer.data("word",
+ paddle.data_type.integer_value_sequence(input_dim))
+ emb = paddle.layer.embedding(input=data, size=emb_dim)
+ conv_3 = paddle.networks.sequence_conv_pool(
+ input=emb, context_len=3, hidden_size=hid_dim)
+ conv_4 = paddle.networks.sequence_conv_pool(
+ input=emb, context_len=4, hidden_size=hid_dim)
+ output = paddle.layer.fc(input=[conv_3, conv_4],
+ size=class_dim,
+ act=paddle.activation.Softmax())
+ lbl = paddle.layer.data("label", paddle.data_type.integer_value(2))
+ cost = paddle.layer.classification_cost(input=output, label=lbl)
+ return cost
+```
+网络的输入`input_dim`表示的是词典的大小,`class_dim`表示类别数。这里,我们使用[`sequence_conv_pool`](https://github.com/PaddlePaddle/Paddle/blob/develop/python/paddle/trainer_config_helpers/networks.py) API实现了卷积和池化操作。
+### 栈式双向LSTM
```
-
-其中,我们仅用一个[`sequence_conv_pool`](https://github.com/PaddlePaddle/Paddle/blob/develop/python/paddle/trainer_config_helpers/networks.py)方法就实现了卷积和池化操作,卷积核的数量为hidden_size参数。
-#### 栈式双向LSTM的实现
-
-```python
def stacked_lstm_net(input_dim,
class_dim=2,
emb_dim=128,
hid_dim=512,
- stacked_num=3,
- is_predict=False):
-
- # LSTM的层数stacked_num为奇数,确保最高层LSTM正向
+ stacked_num=3):
+ """
+ A Wrapper for sentiment classification task.
+ This network uses bi-directional recurrent network,
+ consisting three LSTM layers. This configure is referred to
+ the paper as following url, but use fewer layrs.
+ http://www.aclweb.org/anthology/P15-1109
+
+ input_dim: here is word dictionary dimension.
+ class_dim: number of categories.
+ emb_dim: dimension of word embedding.
+ hid_dim: dimension of hidden layer.
+ stacked_num: number of stacked lstm-hidden layer.
+ """
assert stacked_num % 2 == 1
- # 设置神经网络层的属性
- layer_attr = ExtraLayerAttribute(drop_rate=0.5)
- # 设置参数的属性
- fc_para_attr = ParameterAttribute(learning_rate=1e-3)
- lstm_para_attr = ParameterAttribute(initial_std=0., learning_rate=1.)
- para_attr = [fc_para_attr, lstm_para_attr]
- bias_attr = ParameterAttribute(initial_std=0., l2_rate=0.)
- # 激活函数
- relu = ReluActivation()
- linear = LinearActivation()
-
- # 网络输入:id表示的词序列,词典大小为input_dim
- data = data_layer("word", input_dim)
- # 将id表示的词序列映射为embedding序列
- emb = embedding_layer(input=data, size=emb_dim)
-
- fc1 = fc_layer(input=emb, size=hid_dim, act=linear, bias_attr=bias_attr)
- # 基于LSTM的循环神经网络
- lstm1 = lstmemory(
+ layer_attr = attrs.ExtraLayerAttribute(drop_rate=0.5)
+ fc_para_attr = attrs.ParameterAttribute(learning_rate=1e-3)
+ lstm_para_attr = attrs.ParameterAttribute(initial_std=0., learning_rate=1.)
+ para_attr = [fc_para_attr, lstm_para_attr]
+ bias_attr = attrs.ParameterAttribute(initial_std=0., l2_rate=0.)
+ relu = paddle.activation.Relu()
+ linear = paddle.activation.Linear()
+
+ data = paddle.layer.data("word",
+ paddle.data_type.integer_value_sequence(input_dim))
+ emb = paddle.layer.embedding(input=data, size=emb_dim)
+
+ fc1 = paddle.layer.fc(input=emb,
+ size=hid_dim,
+ act=linear,
+ bias_attr=bias_attr)
+ lstm1 = paddle.layer.lstmemory(
input=fc1, act=relu, bias_attr=bias_attr, layer_attr=layer_attr)
- # 由fc_layer和lstmemory构建深度为stacked_num的栈式双向LSTM
inputs = [fc1, lstm1]
for i in range(2, stacked_num + 1):
- fc = fc_layer(
- input=inputs,
- size=hid_dim,
- act=linear,
- param_attr=para_attr,
- bias_attr=bias_attr)
- lstm = lstmemory(
+ fc = paddle.layer.fc(input=inputs,
+ size=hid_dim,
+ act=linear,
+ param_attr=para_attr,
+ bias_attr=bias_attr)
+ lstm = paddle.layer.lstmemory(
input=fc,
- # 奇数层正向,偶数层反向。
reverse=(i % 2) == 0,
act=relu,
bias_attr=bias_attr,
layer_attr=layer_attr)
inputs = [fc, lstm]
- # 对最后一层fc_layer使用时间维度上的最大池化得到定长向量
- fc_last = pooling_layer(input=inputs[0], pooling_type=MaxPooling())
- # 对最后一层lstmemory使用时间维度上的最大池化得到定长向量
- lstm_last = pooling_layer(input=inputs[1], pooling_type=MaxPooling())
- # 将fc_last和lstm_last拼接起来输入给softmax分类,类别数为class_dim
- output = fc_layer(
- input=[fc_last, lstm_last],
- size=class_dim,
- act=SoftmaxActivation(),
- bias_attr=bias_attr,
- param_attr=para_attr)
-
- if is_predict:
- outputs(output)
- else:
- outputs(classification_cost(input=output, label=data_layer('label', 1)))
+ fc_last = paddle.layer.pooling(input=inputs[0], pooling_type=MaxPooling())
+ lstm_last = paddle.layer.pooling(input=inputs[1], pooling_type=MaxPooling())
+ output = paddle.layer.fc(input=[fc_last, lstm_last],
+ size=class_dim,
+ act=paddle.activation.Softmax(),
+ bias_attr=bias_attr,
+ param_attr=para_attr)
+
+ lbl = paddle.layer.data("label", paddle.data_type.integer_value(2))
+ cost = paddle.layer.classification_cost(input=output, label=lbl)
+ return cost
```
-
-我们的模型配置`trainer_config.py`默认使用`stacked_lstm_net`网络,如果要使用`convolution_net`,注释相应的行即可。
-```python
-stacked_lstm_net(
- dict_dim, class_dim=class_dim, stacked_num=3, is_predict=is_predict)
-# convolution_net(dict_dim, class_dim=class_dim, is_predict=is_predict)
-```
-
+网络的输入`stacked_num`表示的是LSTM的层数,需要是奇数,确保最高层LSTM正向。Paddle里面是通过一个fc和一个lstmemory来实现基于LSTM的循环神经网络。
## 训练模型
-使用`train.sh`脚本可以开启本地的训练:
-
```
-./train.sh
+if __name__ == '__main__':
+ # init
+ paddle.init(use_gpu=False)
```
-
-train.sh内容如下:
-
-```bash
-paddle train --config=trainer_config.py \
- --save_dir=./model_output \
- --job=train \
- --use_gpu=false \
- --trainer_count=4 \
- --num_passes=10 \
- --log_period=20 \
- --dot_period=20 \
- --show_parameter_stats_period=100 \
- --test_all_data_in_one_period=1 \
- 2>&1 | tee 'train.log'
+启动paddle程序,use_gpu=False表示用CPU训练,如果系统支持GPU也可以修改成True使用GPU训练。
+### 训练数据
+使用Paddle提供的数据集`dataset.imdb`中的API来读取训练数据。
```
-
-* \--config=trainer_config.py: 设置模型配置。
-* \--save\_dir=./model_output: 设置输出路径以保存训练完成的模型。
-* \--job=train: 设置工作模式为训练。
-* \--use\_gpu=false: 使用CPU训练,如果您安装GPU版本的PaddlePaddle,并想使用GPU来训练可将此设置为true。
-* \--trainer\_count=4:设置线程数(或GPU个数)。
-* \--num\_passes=15: 设置pass,PaddlePaddle中的一个pass意味着对数据集中的所有样本进行一次训练。
-* \--log\_period=20: 每20个batch打印一次日志。
-* \--show\_parameter\_stats\_period=100: 每100个batch打印一次统计信息。
-* \--test\_all_data\_in\_one\_period=1: 每次测试都测试所有数据。
-
-如果运行成功,输出日志保存在 `train.log`中,模型保存在目录`model_output/`中。 输出日志说明如下:
-
+ print 'load dictionary...'
+ word_dict = paddle.dataset.imdb.word_dict()
+ dict_dim = len(word_dict)
+ class_dim = 2
```
-Batch=20 samples=2560 AvgCost=0.681644 CurrentCost=0.681644 Eval: classification_error_evaluator=0.36875 CurrentEval: classification_error_evaluator=0.36875
-...
-Pass=0 Batch=196 samples=25000 AvgCost=0.418964 Eval: classification_error_evaluator=0.1922
-Test samples=24999 cost=0.39297 Eval: classification_error_evaluator=0.149406
+加载数据字典,这里通过`word_dict()`API可以直接构造字典。`class_dim`是指样本类别数,该示例中样本只有正负两类。
```
-
-* Batch=xx: 表示训练了xx个Batch。
-* samples=xx: 表示训练了xx个样本。
-* AvgCost=xx: 从第0个batch到当前batch的平均损失。
-* CurrentCost=xx: 最新log_period个batch的损失。
-* Eval: classification\_error\_evaluator=xx: 表示第0个batch到当前batch的分类错误。
-* CurrentEval: classification\_error\_evaluator: 最新log_period个batch的分类错误。
-* Pass=0: 通过所有训练集一次称为一个Pass。 0表示第一次经过训练集。
-
-
-## 应用模型
-### 测试
-
-测试是指使用训练出的模型评估已标记的数据集。
-
+ train_reader = paddle.batch(
+ paddle.reader.shuffle(
+ lambda: paddle.dataset.imdb.train(word_dict), buf_size=1000),
+ batch_size=100)
+ test_reader = paddle.batch(
+ lambda: paddle.dataset.imdb.test(word_dict),
+ batch_size=100)
```
-./test.sh
+这里,`dataset.imdb.train()`和`dataset.imdb.test()`分别是`dataset.imdb`中的训练数据和测试数据API。`train_reader`在训练时使用,意义是将读取的训练数据进行shuffle后,组成一个batch数据。同理,`test_reader`是在测试的时候使用,将读取的测试数据组成一个batch。
```
-
-测试脚本`test.sh`的内容如下,其中函数`get_best_pass`通过对分类错误率进行排序来获得最佳模型:
-
-```bash
-function get_best_pass() {
- cat $1 | grep -Pzo 'Test .*\n.*pass-.*' | \
- sed -r 'N;s/Test.* error=([0-9]+\.[0-9]+).*\n.*pass-([0-9]+)/\1 \2/g' | \
- sort | head -n 1
-}
-
-log=train.log
-LOG=`get_best_pass $log`
-LOG=(${LOG})
-evaluate_pass="model_output/pass-${LOG[1]}"
-
-echo 'evaluating from pass '$evaluate_pass
-
-model_list=./model.list
-touch $model_list | echo $evaluate_pass > $model_list
-net_conf=trainer_config.py
-paddle train --config=$net_conf \
- --model_list=$model_list \
- --job=test \
- --use_gpu=false \
- --trainer_count=4 \
- --config_args=is_test=1 \
- 2>&1 | tee 'test.log'
+ reader_dict={'word': 0, 'label': 1}
```
-
-与训练不同,测试时需要指定`--job = test`和模型路径`--model_list = $model_list`。如果测试成功,日志将保存在`test.log`中。 在我们的测试中,最好的模型是`model_output/pass-00002`,分类错误率是0.115645:
-
+`reader_dict`用来指定`train_reader`和`test_reader`返回的数据与模型配置中data_layer的对应关系。这里表示reader返回的第0列数据对应`word`层,第1列数据对应`label`层。
+### 构造模型
```
-Pass=0 samples=24999 AvgCost=0.280471 Eval: classification_error_evaluator=0.115645
+ # Please choose the way to build the network
+ # by uncommenting the corresponding line.
+ cost = convolution_net(dict_dim, class_dim=class_dim)
+ # cost = stacked_lstm_net(dict_dim, class_dim=class_dim, stacked_num=3)
```
-
-### 预测
-`predict.py`脚本提供了一个预测接口。预测IMDB中未标记评论的示例如下:
-
+该示例中默认使用`convolution_net`网络,如果使用`stacked_lstm_net`网络,注释相应的行即可。其中cost是网络的优化目标,同时cost包含了整个网络的拓扑信息。
+### 网络参数
```
-./predict.sh
+ # create parameters
+ parameters = paddle.parameters.create(cost)
```
-predict.sh的内容如下(注意应该确保默认模型路径`model_output/pass-00002`存在或更改为其它模型路径):
-
-```bash
-model=model_output/pass-00002/
-config=trainer_config.py
-label=data/pre-imdb/labels.list
-cat ./data/aclImdb/test/pos/10007_10.txt | python predict.py \
- --tconf=$config \
- --model=$model \
- --label=$label \
- --dict=./data/pre-imdb/dict.txt \
- --batch_size=1
+根据网络的拓扑构造网络参数。这里parameters是整个网络的参数集。
+### 优化算法
```
-
-* `cat ./data/aclImdb/test/pos/10007_10.txt` : 输入预测样本。
-* `predict.py` : 预测接口脚本。
-* `--tconf=$config` : 设置网络配置。
-* `--model=$model` : 设置模型路径。
-* `--label=$label` : 设置标签类别字典,这个字典是整数标签和字符串标签的一个对应。
-* `--dict=data/pre-imdb/dict.txt` : 设置文本数据字典文件。
-* `--batch_size=1` : 预测时的batch size大小。
-
-
-本示例的预测结果:
-
+ # create optimizer
+ adam_optimizer = paddle.optimizer.Adam(
+ learning_rate=2e-3,
+ regularization=paddle.optimizer.L2Regularization(rate=8e-4),
+ model_average=paddle.optimizer.ModelAverage(average_window=0.5))
+```
+Paddle中提供了一系列优化算法的API,这里使用Adam优化算法。
+### 训练
+可以通过`paddle.trainer.SGD`构造一个sgd trainer,并调用`trainer.train`来训练模型。
+```
+ # End batch and end pass event handler
+ def event_handler(event):
+ if isinstance(event, paddle.event.EndIteration):
+ if event.batch_id % 100 == 0:
+ print "\nPass %d, Batch %d, Cost %f, %s" % (
+ event.pass_id, event.batch_id, event.cost, event.metrics)
+ else:
+ sys.stdout.write('.')
+ sys.stdout.flush()
+ if isinstance(event, paddle.event.EndPass):
+ result = trainer.test(reader=test_reader, reader_dict=reader_dict)
+ print "\nTest with Pass %d, %s" % (event.pass_id, result.metrics)
+```
+可以通过给train函数传递一个`event_handler`来获取每个batch和每个pass结束的状态。比如构造如下一个`event_handler`可以在每100个batch结束后输出cost和error;在每个pass结束后调用`trainer.test`计算一遍测试集并获得当前模型在测试集上的error。
+```
+ # create trainer
+ trainer = paddle.trainer.SGD(cost=cost,
+ parameters=parameters,
+ update_equation=adam_optimizer)
+
+ trainer.train(
+ reader=train_reader,
+ event_handler=event_handler,
+ reader_dict=reader_dict,
+ num_passes=2)
+```
+程序运行之后的输出如下。
```
-Loading parameters from model_output/pass-00002/
-predicting label is pos
+Pass 0, Batch 0, Cost 0.693721, {'classification_error_evaluator': 0.5546875}
+...................................................................................................
+Pass 0, Batch 100, Cost 0.294321, {'classification_error_evaluator': 0.1015625}
+...............................................................................................
+Test with Pass 0, {'classification_error_evaluator': 0.11432000249624252}
```
-`10007_10.txt`在路径`./data/aclImdb/test/pos`下面,而这里预测的标签也是pos,说明预测正确。
## 总结
本章我们以情感分析为例,介绍了使用深度学习的方法进行端对端的短文本分类,并且使用PaddlePaddle完成了全部相关实验。同时,我们简要介绍了两种文本处理模型:卷积神经网络和循环神经网络。在后续的章节中我们会看到这两种基本的深度学习模型在其它任务上的应用。
## 参考文献