dataset.md 8.8 KB
Newer Older
S
Superjom 已提交
1 2
# 数据及处理
## 数据集介绍
S
Superjom 已提交
3

S
Superjom 已提交
4 5 6 7 8 9 10
本教程演示使用Kaggle上CTR任务的数据集\[[3](#参考文献)\]的预处理方法,最终产生本模型需要的格式,详细的数据格式参考[README.md](./README.md)

Wide && Deep Model\[[2](#参考文献)\]的优势是融合稠密特征和大规模稀疏特征,
因此特征处理方面也针对稠密和稀疏两种特征作处理,
其中Deep部分的稠密值全部转化为ID类特征,
通过embedding 来转化为稠密的向量输入;Wide部分主要通过ID的叉乘提升维度。

S
Superjom 已提交
11
数据集使用 `csv` 格式存储,其中各个字段内容如下:
S
Superjom 已提交
12

S
Superjom 已提交
13 14 15
-   `id` : ad identifier
-   `click` : 0/1 for non-click/click
-   `hour` : format is YYMMDDHH, so 14091123 means 23:00 on Sept. 11, 2014 UTC.
S
Superjom 已提交
16
-   `C1` : anonymized categorical variable
S
Superjom 已提交
17 18 19 20 21 22 23 24 25 26 27 28
-   `banner_pos`
-   `site_id`
-   `site_domain`
-   `site_category`
-   `app_id`
-   `app_domain`
-   `app_category`
-   `device_id`
-   `device_ip`
-   `device_model`
-   `device_type`
-   `device_conn_type`
S
Superjom 已提交
29
-   `C14-C21` : anonymized categorical variables
S
Superjom 已提交
30 31


S
Superjom 已提交
32
## 特征提取
S
Superjom 已提交
33

S
Superjom 已提交
34
下面我们会简单演示几种特征的提取方式。
S
Superjom 已提交
35 36 37 38

原始数据中的特征可以分为以下几类:

1.  ID 类特征(稀疏,数量多)
S
wrap ~  
Superjom 已提交
39
-   `id`
S
Superjom 已提交
40 41 42
-   `site_id`
-   `app_id`
-   `device_id`
S
Superjom 已提交
43

S
Superjom 已提交
44
2.  类别类特征(稀疏,但数量有限)
S
Superjom 已提交
45

S
wrap ~  
Superjom 已提交
46
-   `C1`
S
Superjom 已提交
47 48 49
-   `site_category`
-   `device_type`
-   `C14-C21`
S
Superjom 已提交
50

S
Superjom 已提交
51 52
3.  数值型特征转化为类别型特征

S
Superjom 已提交
53
-   hour (可以转化成数值,也可以按小时为单位转化为类别)
S
Superjom 已提交
54

S
Superjom 已提交
55
### 类别类特征
S
Superjom 已提交
56 57 58 59

类别类特征的提取方法有以下两种:

1.  One-hot 表示作为特征
S
Superjom 已提交
60
2.  类似词向量,用一个 Embedding 将每个类别映射到对应的向量
S
Superjom 已提交
61 62


S
Superjom 已提交
63
### ID 类特征
S
Superjom 已提交
64 65 66 67 68 69 70 71 72

ID 类特征的特点是稀疏数据,但量比较大,直接使用 One-hot 表示时维度过大。

一般会作如下处理:

1.  确定表示的最大维度 N
2.  newid = id % N
3.  用 newid 作为类别类特征使用

S
Superjom 已提交
73
上面的方法尽管存在一定的碰撞概率,但能够处理任意数量的 ID 特征,并保留一定的效果\[[2](#参考文献)\]
S
Superjom 已提交
74

S
Superjom 已提交
75
### 数值型特征
S
Superjom 已提交
76 77 78 79 80 81

一般会做如下处理:

-   归一化,直接作为特征输入模型
-   用区间分割处理成类别类特征,稀疏化表示,模糊细微上的差别

S
Superjom 已提交
82
## 特征处理
S
Superjom 已提交
83 84


S
Superjom 已提交
85
### 类别型特征
S
Superjom 已提交
86

S
Superjom 已提交
87
类别型特征有有限多种值,在模型中,我们一般使用 Embedding将每种值映射为连续值的向量。
S
Superjom 已提交
88 89 90

这种特征在输入到模型时,一般使用 One-hot 表示,相关处理方法如下:

S
Superjom 已提交
91
```python
S
Superjom 已提交
92 93 94 95 96 97 98 99 100 101 102 103 104 105 106
class CategoryFeatureGenerator(object):
    '''
    Generator category features.

    Register all records by calling ~register~ first, then call ~gen~ to generate
    one-hot representation for a record.
    '''

    def __init__(self):
        self.dic = {'unk': 0}
        self.counter = 1

    def register(self, key):
        '''
        Register record.
S
Superjom 已提交
107
        '''
S
Superjom 已提交
108 109 110
        if key not in self.dic:
            self.dic[key] = self.counter
            self.counter += 1
S
Superjom 已提交
111

S
Superjom 已提交
112 113 114 115 116 117
    def size(self):
        return len(self.dic)

    def gen(self, key):
        '''
        Generate one-hot representation for a record.
S
Superjom 已提交
118
        '''
S
Superjom 已提交
119 120 121 122 123 124 125 126 127
        if key not in self.dic:
            res = self.dic['unk']
        else:
            res = self.dic[key]
        return [res]

    def __repr__(self):
        return '<CategoryFeatureGenerator %d>' % len(self.dic)
```
S
Superjom 已提交
128

S
Superjom 已提交
129 130
`CategoryFeatureGenerator` 需要先扫描数据集,得到该类别对应的项集合,之后才能开始生成特征。

S
Superjom 已提交
131
我们的实验数据集\[[3](https://www.kaggle.com/c/avazu-ctr-prediction/data)\]已经经过shuffle,可以扫描前面一定数目的记录来近似总的类别项集合(等价于随机抽样),
S
Superjom 已提交
132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164
对于没有抽样上的低频类别项,可以用一个 UNK 的特殊值表示。

```python
fields = {}
for key in categorial_features:
    fields[key] = CategoryFeatureGenerator()

def detect_dataset(path, topn, id_fea_space=10000):
    '''
    Parse the first `topn` records to collect meta information of this dataset.

    NOTE the records should be randomly shuffled first.
    '''
    # create categorical statis objects.

    with open(path, 'rb') as csvfile:
        reader = csv.DictReader(csvfile)
        for row_id, row in enumerate(reader):
            if row_id > topn:
                break

            for key in categorial_features:
                fields[key].register(row[key])
```

`CategoryFeatureGenerator` 在注册得到数据集中对应类别信息后,可以对相应记录生成对应的特征表示:

```python
record = []
for key in categorial_features:
    record.append(fields[key].gen(row[key]))
```

S
Superjom 已提交
165 166
本任务中,类别类特征会输入到 DNN 中使用。

S
Superjom 已提交
167
### ID 类特征
S
Superjom 已提交
168 169 170 171

ID 类特征代稀疏值,且值的空间很大的情况,一般用模操作规约到一个有限空间,
之后可以当成类别类特征使用,这里我们会将 ID 类特征输入到 LR 模型中使用。

S
Superjom 已提交
172
```python
S
Superjom 已提交
173 174 175 176 177 178 179 180 181 182 183 184 185
class IDfeatureGenerator(object):
    def __init__(self, max_dim):
        '''
        @max_dim: int
            Size of the id elements' space
        '''
        self.max_dim = max_dim

    def gen(self, key):
        '''
        Generate one-hot representation for records
        '''
        return [hash(key) % self.max_dim]
S
Superjom 已提交
186

S
Superjom 已提交
187 188 189
    def size(self):
        return self.max_dim
```
S
Superjom 已提交
190

S
Superjom 已提交
191 192 193 194 195 196 197 198 199
`IDfeatureGenerator` 不需要预先初始化,可以直接生成特征,比如

```python
record = []
for key in id_features:
    if 'cross' not in key:
        record.append(fields[key].gen(row[key]))
```

S
Superjom 已提交
200
### 交叉类特征
S
Superjom 已提交
201

S
Superjom 已提交
202
LR 模型作为 Wide & Deep model 的 `wide` 部分,可以输入很 wide 的数据(特征空间的维度很大),
S
Superjom 已提交
203 204
为了充分利用这个优势,我们将演示交叉组合特征构建成更大维度特征的情况,之后塞入到模型中训练。

S
Superjom 已提交
205
这里我们依旧使用模操作来约束最终组合出的特征空间的大小,具体实现是直接在 `IDfeatureGenerator` 中添加一个 `gen_cross_feature` 的方法:
S
Superjom 已提交
206

S
Superjom 已提交
207
```python
S
Superjom 已提交
208 209 210 211
def gen_cross_fea(self, fea1, fea2):
    key = str(fea1) + str(fea2)
    return self.gen(key)
```
S
Superjom 已提交
212

S
Superjom 已提交
213
比如,我们觉得原始数据中, `device_id``site_id` 有一些关联(比如某个 device 倾向于浏览特定 site),
S
Superjom 已提交
214 215
我们通过组合出两者组合来捕捉这类信息。

S
Superjom 已提交
216 217 218 219 220 221 222
```python
fea0 = fields[key].cross_fea0
fea1 = fields[key].cross_fea1
record.append(
    fields[key].gen_cross_fea(row[fea0], row[fea1]))
```

S
Superjom 已提交
223 224 225
### 特征维度
#### Deep submodel(DNN)特征
| feature          | dimention |
S
Superjom 已提交
226
|------------------|-----------|
S
Superjom 已提交
227 228 229 230 231 232 233 234 235
| app_category     |        21 |
| site_category    |        22 |
| device_conn_type |         5 |
| hour             |        24 |
| banner_pos       |         7 |
| **Total**        | 79        |

#### Wide submodel(LR)特征
| Feature             | Dimention |
S
Superjom 已提交
236
|---------------------|-----------|
S
Superjom 已提交
237 238 239 240 241 242 243 244
| id                  |     10000 |
| site_id             |     10000 |
| app_id              |     10000 |
| device_id           |     10000 |
| device_id X site_id |   1000000 |
| **Total**           | 1,040,000 |

## 输入到 PaddlePaddle 中
S
Superjom 已提交
245

S
Superjom 已提交
246
Deep 和 Wide 两部分均以 `sparse_binary_vector` 的格式 \[[1](https://github.com/PaddlePaddle/Paddle/blob/develop/doc/api/v1/data_provider/pydataprovider2_en.rst)\] 输入,输入前需要将相关特征拼合,模型最终只接受 3 个 input,
S
Superjom 已提交
247 248
分别是

S
wrap ~  
Superjom 已提交
249 250 251
1.  `dnn input` ,DNN 的输入
2.  `lr input` , LR 的输入
3.  `click`  , 标签
S
Superjom 已提交
252 253 254

拼合特征的方法:

S
Superjom 已提交
255
```python
S
Superjom 已提交
256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273
def concat_sparse_vectors(inputs, dims):
    '''
    concaterate sparse vectors into one

    @inputs: list
        list of sparse vector
    @dims: list of int
        dimention of each sparse vector
    '''
    res = []
    assert len(inputs) == len(dims)
    start = 0
    for no, vec in enumerate(inputs):
        for v in vec:
            res.append(v + start)
        start += dims[no]
    return res
```
S
Superjom 已提交
274

S
Superjom 已提交
275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293
生成最终特征的代码如下:

```python
# dimentions of the features
categorial_dims = [
    feature_dims[key] for key in categorial_features + ['hour']
]
id_dims = [feature_dims[key] for key in id_features]

dense_input = concat_sparse_vectors(record, categorial_dims)
sparse_input = concat_sparse_vectors(record, id_dims)

record = [dense_input, sparse_input]
record.append(list((int(row['click']), )))
yield record
```

## 参考文献

S
Superjom 已提交
294
1. <https://github.com/PaddlePaddle/Paddle/blob/develop/doc/api/v1/data_provider/pydataprovider2_en.rst>
S
Superjom 已提交
295 296
2. Mikolov T, Deoras A, Povey D, et al. [Strategies for training large scale neural network language models](https://www.researchgate.net/profile/Lukas_Burget/publication/241637478_Strategies_for_training_large_scale_neural_network_language_models/links/542c14960cf27e39fa922ed3.pdf)[C]//Automatic Speech Recognition and Understanding (ASRU), 2011 IEEE Workshop on. IEEE, 2011: 196-201.
3. <https://www.kaggle.com/c/avazu-ctr-prediction/data>