提交 07ba10b1 编写于 作者: S Superjom

fix markdown display

上级 04fbeb5e
......@@ -2,29 +2,29 @@
<h2>Table of Contents</h2>
<div id="text-table-of-contents">
<ul>
<li><a href="#org50629cf">1. 背景介绍</a>
<li><a href="#org466cf34">1. 背景介绍</a>
<ul>
<li><a href="#org82d29f2">1.1. LR vs DNN</a></li>
<li><a href="#orgf06d0ce">1.1. LR vs DNN</a></li>
</ul>
</li>
<li><a href="#org71b628e">2. 数据和任务抽象</a></li>
<li><a href="#orga33b812">3. Wide &amp; Deep Learning Model</a>
<li><a href="#orgb599ca8">2. 数据和任务抽象</a></li>
<li><a href="#org9ca5c95">3. Wide &amp; Deep Learning Model</a>
<ul>
<li><a href="#org83aff73">3.1. 模型简介</a></li>
<li><a href="#org5ea2bba">3.2. 编写模型输入</a></li>
<li><a href="#org17c16e7">3.3. 编写 Wide 部分</a></li>
<li><a href="#orged3e908">3.4. 编写 Deep 部分</a></li>
<li><a href="#org80056a6">3.5. 两者融合</a></li>
<li><a href="#org6afcbfa">3.6. 训练任务的定义</a></li>
<li><a href="#org8ce8325">3.1. 模型简介</a></li>
<li><a href="#org7c4e5de">3.2. 编写模型输入</a></li>
<li><a href="#org18b2115">3.3. 编写 Wide 部分</a></li>
<li><a href="#org80d7554">3.4. 编写 Deep 部分</a></li>
<li><a href="#orge8947b8">3.5. 两者融合</a></li>
<li><a href="#orgaf3e9f2">3.6. 训练任务的定义</a></li>
</ul>
</li>
<li><a href="#orgbfe2993">4. 引用</a></li>
<li><a href="#orgad3893f">4. 引用</a></li>
</ul>
</div>
</div>
<a id="org50629cf"></a>
<a id="org466cf34"></a>
# 背景介绍
......@@ -51,7 +51,7 @@ CTR(Click-through rate) 是用来表示用户点击一个特定链接的概率
逐渐地接过 CTR 预估任务的大旗。
<a id="org82d29f2"></a>
<a id="orgf06d0ce"></a>
## LR vs DNN
......@@ -73,7 +73,7 @@ LR 对于 NN 模型的优势是对大规模稀疏特征的容纳能力,包括
本文后面的章节会演示如何使用 PaddlePaddle 编写一个结合两者优点的模型。
<a id="org71b628e"></a>
<a id="orgb599ca8"></a>
# 数据和任务抽象
......@@ -90,14 +90,14 @@ LR 对于 NN 模型的优势是对大规模稀疏特征的容纳能力,包括
具体的特征处理方法参看 [data process](./dataset.md)
<a id="orga33b812"></a>
<a id="org9ca5c95"></a>
# Wide & Deep Learning Model
谷歌在 16 年提出了 Wide & Deep Learning 的模型框架,用于融合适合学习抽象特征的 DNN 和 适用于大规模稀疏特征的 LR 两种模型的优点。
<a id="org83aff73"></a>
<a id="org8ce8325"></a>
## 模型简介
......@@ -112,7 +112,7 @@ Wide & Deep Learning Model 可以作为一种相对成熟的模型框架使用
而模型右边的 Deep 部分,能够学习特征间的隐含关系,在相同数量的特征下有更好的学习和推导能力。
<a id="org5ea2bba"></a>
<a id="org7c4e5de"></a>
## 编写模型输入
......@@ -123,51 +123,57 @@ Wide & Deep Learning Model 可以作为一种相对成熟的模型框架使用
- `click` , 点击与否,作为二分类模型学习的标签
```python
dnn_merged_input = layer.data(
name='dnn_input',
type=paddle.data_type.sparse_binary_vector(data_meta_info['dnn_input']))
dnn_merged_input = layer.data(
name='dnn_input',
type=paddle.data_type.sparse_binary_vector(data_meta_info['dnn_input']))
lr_merged_input = layer.data(
name='lr_input',
type=paddle.data_type.sparse_binary_vector(data_meta_info['lr_input']))
lr_merged_input = layer.data(
name='lr_input',
type=paddle.data_type.sparse_binary_vector(data_meta_info['lr_input']))
click = paddle.layer.data(name='click', type=dtype.dense_vector(1))
click = paddle.layer.data(name='click', type=dtype.dense_vector(1))
<a id="org17c16e7"></a>
```
<a id="org18b2115"></a>
## 编写 Wide 部分
Wide 部分直接使用了 LR 模型,但激活函数改成了 `RELU` 来加速
```python
def build_lr_submodel():
fc = layer.fc(
input=lr_merged_input, size=1, name='lr', act=paddle.activation.Relu())
return fc
def build_lr_submodel():
fc = layer.fc(
input=lr_merged_input, size=1, name='lr', act=paddle.activation.Relu())
return fc
<a id="orged3e908"></a>
```
<a id="org80d7554"></a>
## 编写 Deep 部分
Deep 部分使用了标准的多层前向传导的 NN 模型
```python
def build_dnn_submodel(dnn_layer_dims):
dnn_embedding = layer.fc(input=dnn_merged_input, size=dnn_layer_dims[0])
_input_layer = dnn_embedding
for no, dim in enumerate(dnn_layer_dims[1:]):
fc = layer.fc(
input=_input_layer,
size=dim,
act=paddle.activation.Relu(),
name='dnn-fc-%d' % no)
_input_layer = fc
return _input_layer
def build_dnn_submodel(dnn_layer_dims):
dnn_embedding = layer.fc(input=dnn_merged_input, size=dnn_layer_dims[0])
_input_layer = dnn_embedding
for no, dim in enumerate(dnn_layer_dims[1:]):
fc = layer.fc(
input=_input_layer,
size=dim,
act=paddle.activation.Relu(),
name='dnn-fc-%d' % no)
_input_layer = fc
return _input_layer
<a id="org80056a6"></a>
```
<a id="orge8947b8"></a>
## 两者融合
......@@ -175,66 +181,70 @@ Deep 部分使用了标准的多层前向传导的 NN 模型
来逼近训练数据中二元类别的分布,最终作为 CTR 预估的值使用。
```python
# conbine DNN and LR submodels
def combine_submodels(dnn, lr):
merge_layer = layer.concat(input=[dnn, lr])
fc = layer.fc(
input=merge_layer,
size=1,
name='output',
# use sigmoid function to approximate ctr rate, a float value between 0 and 1.
act=paddle.activation.Sigmoid())
return fc
# conbine DNN and LR submodels
def combine_submodels(dnn, lr):
merge_layer = layer.concat(input=[dnn, lr])
fc = layer.fc(
input=merge_layer,
size=1,
name='output',
# use sigmoid function to approximate ctr rate, a float value between 0 and 1.
act=paddle.activation.Sigmoid())
return fc
<a id="org6afcbfa"></a>
```
<a id="orgaf3e9f2"></a>
## 训练任务的定义
```python
dnn = build_dnn_submodel(dnn_layer_dims)
lr = build_lr_submodel()
output = combine_submodels(dnn, lr)
dnn = build_dnn_submodel(dnn_layer_dims)
lr = build_lr_submodel()
output = combine_submodels(dnn, lr)
# ==============================================================================
# cost and train period
# ==============================================================================
classification_cost = paddle.layer.multi_binary_label_cross_entropy_cost(
input=output, label=click)
# ==============================================================================
# cost and train period
# ==============================================================================
classification_cost = paddle.layer.multi_binary_label_cross_entropy_cost(
input=output, label=click)
params = paddle.parameters.create(classification_cost)
params = paddle.parameters.create(classification_cost)
optimizer = paddle.optimizer.Momentum(momentum=0)
optimizer = paddle.optimizer.Momentum(momentum=0)
trainer = paddle.trainer.SGD(
cost=classification_cost, parameters=params, update_equation=optimizer)
trainer = paddle.trainer.SGD(
cost=classification_cost, parameters=params, update_equation=optimizer)
dataset = AvazuDataset(train_data_path, n_records_as_test=test_set_size)
dataset = AvazuDataset(train_data_path, n_records_as_test=test_set_size)
def event_handler(event):
if isinstance(event, paddle.event.EndIteration):
if event.batch_id % 100 == 0:
logging.warning("Pass %d, Samples %d, Cost %f" % (
event.pass_id, event.batch_id * batch_size, event.cost))
def event_handler(event):
if isinstance(event, paddle.event.EndIteration):
if event.batch_id % 100 == 0:
logging.warning("Pass %d, Samples %d, Cost %f" % (
event.pass_id, event.batch_id * batch_size, event.cost))
if event.batch_id % 1000 == 0:
result = trainer.test(
reader=paddle.batch(dataset.test, batch_size=1000),
feeding=field_index)
logging.warning("Test %d-%d, Cost %f" % (event.pass_id, event.batch_id,
result.cost))
if event.batch_id % 1000 == 0:
result = trainer.test(
reader=paddle.batch(dataset.test, batch_size=1000),
feeding=field_index)
logging.warning("Test %d-%d, Cost %f" % (event.pass_id, event.batch_id,
result.cost))
trainer.train(
reader=paddle.batch(
paddle.reader.shuffle(dataset.train, buf_size=500),
batch_size=batch_size),
feeding=field_index,
event_handler=event_handler,
num_passes=100)
trainer.train(
reader=paddle.batch(
paddle.reader.shuffle(dataset.train, buf_size=500),
batch_size=batch_size),
feeding=field_index,
event_handler=event_handler,
num_passes=100)
```
<a id="orgbfe2993"></a>
<a id="orgad3893f"></a>
# 引用
......
......@@ -2,34 +2,34 @@
<h2>Table of Contents</h2>
<div id="text-table-of-contents">
<ul>
<li><a href="#orga96c5e8">1. 数据集介绍</a></li>
<li><a href="#orge73ddcc">2. 特征提取</a>
<li><a href="#orgc5babdf">1. 数据集介绍</a></li>
<li><a href="#orgbbc9886">2. 特征提取</a>
<ul>
<li><a href="#orgbe379b1">2.1. 类别类特征</a></li>
<li><a href="#org811ca7c">2.2. ID 类特征</a></li>
<li><a href="#orgc1d7d23">2.3. 数值型特征</a></li>
<li><a href="#orgce8b3e2">2.1. 类别类特征</a></li>
<li><a href="#org36ef5ff">2.2. ID 类特征</a></li>
<li><a href="#org86e6ead">2.3. 数值型特征</a></li>
</ul>
</li>
<li><a href="#org609b660">3. 特征处理</a>
<li><a href="#orgb22787c">3. 特征处理</a>
<ul>
<li><a href="#org5fdd532">3.1. 类别型特征</a></li>
<li><a href="#orgad85d3e">3.2. ID 类特征</a></li>
<li><a href="#org0cbe90e">3.3. 交叉类特征</a></li>
<li><a href="#org4bdb372">3.4. 特征维度</a>
<li><a href="#orge3814aa">3.1. 类别型特征</a></li>
<li><a href="#org0d48201">3.2. ID 类特征</a></li>
<li><a href="#org399e146">3.3. 交叉类特征</a></li>
<li><a href="#org2ce9054">3.4. 特征维度</a>
<ul>
<li><a href="#org0530a25">3.4.1. Deep submodel(DNN)特征</a></li>
<li><a href="#orged20ff2">3.4.2. Wide submodel(LR)特征</a></li>
<li><a href="#org02df08b">3.4.1. Deep submodel(DNN)特征</a></li>
<li><a href="#org76983ab">3.4.2. Wide submodel(LR)特征</a></li>
</ul>
</li>
</ul>
</li>
<li><a href="#org70ad7d8">4. 输入到 PaddlePaddle 中</a></li>
<li><a href="#org38b7a5c">4. 输入到 PaddlePaddle 中</a></li>
</ul>
</div>
</div>
<a id="orga96c5e8"></a>
<a id="orgc5babdf"></a>
# 数据集介绍
......@@ -54,7 +54,7 @@
- C14-C21 &#x2013; anonymized categorical variables
<a id="orge73ddcc"></a>
<a id="orgbbc9886"></a>
# 特征提取
......@@ -64,24 +64,30 @@
1. ID 类特征(稀疏,数量多)
```python
- id
- site<sub>id</sub>
- app<sub>id</sub>
- device<sub>id</sub>
- id
- site<sub>id</sub>
- app<sub>id</sub>
- device<sub>id</sub>
```
2. 类别类特征(稀疏,但数量有限)
```python
- C1
- site<sub>category</sub>
- device<sub>type</sub>
- C14-C21
- C1
- site<sub>category</sub>
- device<sub>type</sub>
- C14-C21
```
3. 数值型特征转化为类别型特征
```python
- hour (可以转化成数值也可以按小时为单位转化为类别
- hour (可以转化成数值也可以按小时为单位转化为类别
```
<a id="orgbe379b1"></a>
<a id="orgce8b3e2"></a>
## 类别类特征
......@@ -91,7 +97,7 @@
2. 类似词向量,用一个 Embedding Table 将每个类别映射到对应的向量
<a id="org811ca7c"></a>
<a id="org36ef5ff"></a>
## ID 类特征
......@@ -106,7 +112,7 @@ ID 类特征的特点是稀疏数据,但量比较大,直接使用 One-hot
上面的方法尽管存在一定的碰撞概率,但能够处理任意数量的 ID 特征,并保留一定的效果[2]。
<a id="orgc1d7d23"></a>
<a id="org86e6ead"></a>
## 数值型特征
......@@ -116,12 +122,12 @@ ID 类特征的特点是稀疏数据,但量比较大,直接使用 One-hot
- 用区间分割处理成类别类特征,稀疏化表示,模糊细微上的差别
<a id="org609b660"></a>
<a id="orgb22787c"></a>
# 特征处理
<a id="org5fdd532"></a>
<a id="orge3814aa"></a>
## 类别型特征
......@@ -130,46 +136,48 @@ ID 类特征的特点是稀疏数据,但量比较大,直接使用 One-hot
这种特征在输入到模型时,一般使用 One-hot 表示,相关处理方法如下:
```python
class CategoryFeatureGenerator(object):
class CategoryFeatureGenerator(object):
'''
Generator category features.
Register all records by calling ~register~ first, then call ~gen~ to generate
one-hot representation for a record.
'''
def __init__(self):
self.dic = {'unk': 0}
self.counter = 1
def register(self, key):
'''
Register record.
'''
Generator category features.
if key not in self.dic:
self.dic[key] = self.counter
self.counter += 1
Register all records by calling ~register~ first, then call ~gen~ to generate
one-hot representation for a record.
def size(self):
return len(self.dic)
def gen(self, key):
'''
Generate one-hot representation for a record.
'''
if key not in self.dic:
res = self.dic['unk']
else:
res = self.dic[key]
return [res]
def __repr__(self):
return '<CategoryFeatureGenerator %d>' % len(self.dic)
def __init__(self):
self.dic = {'unk': 0}
self.counter = 1
def register(self, key):
'''
Register record.
'''
if key not in self.dic:
self.dic[key] = self.counter
self.counter += 1
def size(self):
return len(self.dic)
def gen(self, key):
'''
Generate one-hot representation for a record.
'''
if key not in self.dic:
res = self.dic['unk']
else:
res = self.dic[key]
return [res]
def __repr__(self):
return '<CategoryFeatureGenerator %d>' % len(self.dic)
```
本任务中,类别类特征会输入到 DNN 中使用。
<a id="orgad85d3e"></a>
<a id="org0d48201"></a>
## ID 类特征
......@@ -177,25 +185,27 @@ ID 类特征代稀疏值,且值的空间很大的情况,一般用模操作
之后可以当成类别类特征使用,这里我们会将 ID 类特征输入到 LR 模型中使用。
```python
class IDfeatureGenerator(object):
def __init__(self, max_dim):
'''
@max_dim: int
Size of the id elements' space
'''
self.max_dim = max_dim
class IDfeatureGenerator(object):
def __init__(self, max_dim):
'''
@max_dim: int
Size of the id elements' space
'''
self.max_dim = max_dim
def gen(self, key):
'''
Generate one-hot representation for records
'''
return [hash(key) % self.max_dim]
def gen(self, key):
'''
Generate one-hot representation for records
'''
return [hash(key) % self.max_dim]
def size(self):
return self.max_dim
def size(self):
return self.max_dim
```
<a id="org0cbe90e"></a>
<a id="org399e146"></a>
## 交叉类特征
......@@ -205,20 +215,22 @@ LR 模型作为 Wide & Deep model 的 `wide` 部分,可以输入很 wide 的
这里我们依旧使用模操作来约束最终组合出的特征空间的大小,具体实现是直接在 `IDfeatureGenerator` 中添加一个~gen<sub>cross</sub><sub>feature</sub>~ 的方法:
```python
def gen_cross_fea(self, fea1, fea2):
key = str(fea1) + str(fea2)
return self.gen(key)
def gen_cross_fea(self, fea1, fea2):
key = str(fea1) + str(fea2)
return self.gen(key)
```
比如,我们觉得原始数据中, `device_id``site_id` 有一些关联(比如某个 device 倾向于浏览特定 site),
我们通过组合出两者组合来捕捉这类信息。
<a id="org4bdb372"></a>
<a id="org2ce9054"></a>
## 特征维度
<a id="org0530a25"></a>
<a id="org02df08b"></a>
### Deep submodel(DNN)特征
......@@ -277,7 +289,7 @@ LR 模型作为 Wide & Deep model 的 `wide` 部分,可以输入很 wide 的
</table>
<a id="orged20ff2"></a>
<a id="org76983ab"></a>
### Wide submodel(LR)特征
......@@ -336,7 +348,7 @@ LR 模型作为 Wide & Deep model 的 `wide` 部分,可以输入很 wide 的
</table>
<a id="org70ad7d8"></a>
<a id="org38b7a5c"></a>
# 输入到 PaddlePaddle 中
......@@ -350,23 +362,25 @@ Deep 和 Wide 两部分均以 `sparse_binary_vector` 的格式[1]输入,输入
拼合特征的方法:
```python
def concat_sparse_vectors(inputs, dims):
'''
concaterate sparse vectors into one
@inputs: list
list of sparse vector
@dims: list of int
dimention of each sparse vector
'''
res = []
assert len(inputs) == len(dims)
start = 0
for no, vec in enumerate(inputs):
for v in vec:
res.append(v + start)
start += dims[no]
return res
def concat_sparse_vectors(inputs, dims):
'''
concaterate sparse vectors into one
@inputs: list
list of sparse vector
@dims: list of int
dimention of each sparse vector
'''
res = []
assert len(inputs) == len(dims)
start = 0
for no, vec in enumerate(inputs):
for v in vec:
res.append(v + start)
start += dims[no]
return res
```
[1] <https://github.com/PaddlePaddle/Paddle/blob/develop/doc/api/v1/data_provider/pydataprovider2_en.rst>
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册