dataset.md 8.2 KB
Newer Older
S
Superjom 已提交
1 2
# 数据及处理
## 数据集介绍
S
Superjom 已提交
3

S
Superjom 已提交
4
数据集使用 `csv` 格式存储,其中各个字段内容如下:
S
Superjom 已提交
5

S
Superjom 已提交
6 7 8
-   `id` : ad identifier
-   `click` : 0/1 for non-click/click
-   `hour` : format is YYMMDDHH, so 14091123 means 23:00 on Sept. 11, 2014 UTC.
S
Superjom 已提交
9
-   `C1` : anonymized categorical variable
S
Superjom 已提交
10 11 12 13 14 15 16 17 18 19 20 21
-   `banner_pos`
-   `site_id`
-   `site_domain`
-   `site_category`
-   `app_id`
-   `app_domain`
-   `app_category`
-   `device_id`
-   `device_ip`
-   `device_model`
-   `device_type`
-   `device_conn_type`
S
Superjom 已提交
22
-   `C14-C21` : anonymized categorical variables
S
Superjom 已提交
23 24


S
Superjom 已提交
25
## 特征提取
S
Superjom 已提交
26

S
Superjom 已提交
27
下面我们会简单演示几种特征的提取方式。
S
Superjom 已提交
28 29 30 31

原始数据中的特征可以分为以下几类:

1.  ID 类特征(稀疏,数量多)
S
wrap ~  
Superjom 已提交
32
-   `id`
S
Superjom 已提交
33 34 35
-   `site_id`
-   `app_id`
-   `device_id`
S
Superjom 已提交
36

S
Superjom 已提交
37
2.  类别类特征(稀疏,但数量有限)
S
Superjom 已提交
38

S
wrap ~  
Superjom 已提交
39
-   `C1`
S
Superjom 已提交
40 41 42
-   `site_category`
-   `device_type`
-   `C14-C21`
S
Superjom 已提交
43

S
Superjom 已提交
44 45
3.  数值型特征转化为类别型特征

S
Superjom 已提交
46
-   hour (可以转化成数值,也可以按小时为单位转化为类别)
S
Superjom 已提交
47

S
Superjom 已提交
48
### 类别类特征
S
Superjom 已提交
49 50 51 52

类别类特征的提取方法有以下两种:

1.  One-hot 表示作为特征
S
Superjom 已提交
53
2.  类似词向量,用一个 Embedding 将每个类别映射到对应的向量
S
Superjom 已提交
54 55


S
Superjom 已提交
56
### ID 类特征
S
Superjom 已提交
57 58 59 60 61 62 63 64 65

ID 类特征的特点是稀疏数据,但量比较大,直接使用 One-hot 表示时维度过大。

一般会作如下处理:

1.  确定表示的最大维度 N
2.  newid = id % N
3.  用 newid 作为类别类特征使用

S
Superjom 已提交
66
上面的方法尽管存在一定的碰撞概率,但能够处理任意数量的 ID 特征,并保留一定的效果\[[2](#参考文献)\]
S
Superjom 已提交
67

S
Superjom 已提交
68
### 数值型特征
S
Superjom 已提交
69 70 71 72 73 74

一般会做如下处理:

-   归一化,直接作为特征输入模型
-   用区间分割处理成类别类特征,稀疏化表示,模糊细微上的差别

S
Superjom 已提交
75
## 特征处理
S
Superjom 已提交
76 77


S
Superjom 已提交
78
### 类别型特征
S
Superjom 已提交
79

S
Superjom 已提交
80
类别型特征有有限多种值,在模型中,我们一般使用 Embedding将每种值映射为连续值的向量。
S
Superjom 已提交
81 82 83

这种特征在输入到模型时,一般使用 One-hot 表示,相关处理方法如下:

S
Superjom 已提交
84
```python
S
Superjom 已提交
85 86 87 88 89 90 91 92 93 94 95 96 97 98 99
class CategoryFeatureGenerator(object):
    '''
    Generator category features.

    Register all records by calling ~register~ first, then call ~gen~ to generate
    one-hot representation for a record.
    '''

    def __init__(self):
        self.dic = {'unk': 0}
        self.counter = 1

    def register(self, key):
        '''
        Register record.
S
Superjom 已提交
100
        '''
S
Superjom 已提交
101 102 103
        if key not in self.dic:
            self.dic[key] = self.counter
            self.counter += 1
S
Superjom 已提交
104

S
Superjom 已提交
105 106 107 108 109 110
    def size(self):
        return len(self.dic)

    def gen(self, key):
        '''
        Generate one-hot representation for a record.
S
Superjom 已提交
111
        '''
S
Superjom 已提交
112 113 114 115 116 117 118 119 120
        if key not in self.dic:
            res = self.dic['unk']
        else:
            res = self.dic[key]
        return [res]

    def __repr__(self):
        return '<CategoryFeatureGenerator %d>' % len(self.dic)
```
S
Superjom 已提交
121

S
Superjom 已提交
122 123
`CategoryFeatureGenerator` 需要先扫描数据集,得到该类别对应的项集合,之后才能开始生成特征。

S
Superjom 已提交
124
我们的实验数据集\[[3](https://www.kaggle.com/c/avazu-ctr-prediction/data)\]已经经过shuffle,可以扫描前面一定数目的记录来近似总的类别项集合(等价于随机抽样),
S
Superjom 已提交
125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157
对于没有抽样上的低频类别项,可以用一个 UNK 的特殊值表示。

```python
fields = {}
for key in categorial_features:
    fields[key] = CategoryFeatureGenerator()

def detect_dataset(path, topn, id_fea_space=10000):
    '''
    Parse the first `topn` records to collect meta information of this dataset.

    NOTE the records should be randomly shuffled first.
    '''
    # create categorical statis objects.

    with open(path, 'rb') as csvfile:
        reader = csv.DictReader(csvfile)
        for row_id, row in enumerate(reader):
            if row_id > topn:
                break

            for key in categorial_features:
                fields[key].register(row[key])
```

`CategoryFeatureGenerator` 在注册得到数据集中对应类别信息后,可以对相应记录生成对应的特征表示:

```python
record = []
for key in categorial_features:
    record.append(fields[key].gen(row[key]))
```

S
Superjom 已提交
158 159
本任务中,类别类特征会输入到 DNN 中使用。

S
Superjom 已提交
160
### ID 类特征
S
Superjom 已提交
161 162 163 164

ID 类特征代稀疏值,且值的空间很大的情况,一般用模操作规约到一个有限空间,
之后可以当成类别类特征使用,这里我们会将 ID 类特征输入到 LR 模型中使用。

S
Superjom 已提交
165
```python
S
Superjom 已提交
166 167 168 169 170 171 172 173 174 175 176 177 178
class IDfeatureGenerator(object):
    def __init__(self, max_dim):
        '''
        @max_dim: int
            Size of the id elements' space
        '''
        self.max_dim = max_dim

    def gen(self, key):
        '''
        Generate one-hot representation for records
        '''
        return [hash(key) % self.max_dim]
S
Superjom 已提交
179

S
Superjom 已提交
180 181 182
    def size(self):
        return self.max_dim
```
S
Superjom 已提交
183

S
Superjom 已提交
184 185 186 187 188 189 190 191 192
`IDfeatureGenerator` 不需要预先初始化,可以直接生成特征,比如

```python
record = []
for key in id_features:
    if 'cross' not in key:
        record.append(fields[key].gen(row[key]))
```

S
Superjom 已提交
193
### 交叉类特征
S
Superjom 已提交
194

S
Superjom 已提交
195
LR 模型作为 Wide & Deep model 的 `wide` 部分,可以输入很 wide 的数据(特征空间的维度很大),
S
Superjom 已提交
196 197
为了充分利用这个优势,我们将演示交叉组合特征构建成更大维度特征的情况,之后塞入到模型中训练。

S
Superjom 已提交
198
这里我们依旧使用模操作来约束最终组合出的特征空间的大小,具体实现是直接在 `IDfeatureGenerator` 中添加一个 `gen_cross_feature` 的方法:
S
Superjom 已提交
199

S
Superjom 已提交
200
```python
S
Superjom 已提交
201 202 203 204
def gen_cross_fea(self, fea1, fea2):
    key = str(fea1) + str(fea2)
    return self.gen(key)
```
S
Superjom 已提交
205

S
Superjom 已提交
206
比如,我们觉得原始数据中, `device_id``site_id` 有一些关联(比如某个 device 倾向于浏览特定 site),
S
Superjom 已提交
207 208
我们通过组合出两者组合来捕捉这类信息。

S
Superjom 已提交
209 210 211 212 213 214 215
```python
fea0 = fields[key].cross_fea0
fea1 = fields[key].cross_fea1
record.append(
    fields[key].gen_cross_fea(row[fea0], row[fea1]))
```

S
Superjom 已提交
216 217 218
### 特征维度
#### Deep submodel(DNN)特征
| feature          | dimention |
S
Superjom 已提交
219
|------------------|-----------|
S
Superjom 已提交
220 221 222 223 224 225 226 227 228
| app_category     |        21 |
| site_category    |        22 |
| device_conn_type |         5 |
| hour             |        24 |
| banner_pos       |         7 |
| **Total**        | 79        |

#### Wide submodel(LR)特征
| Feature             | Dimention |
S
Superjom 已提交
229
|---------------------|-----------|
S
Superjom 已提交
230 231 232 233 234 235 236 237
| id                  |     10000 |
| site_id             |     10000 |
| app_id              |     10000 |
| device_id           |     10000 |
| device_id X site_id |   1000000 |
| **Total**           | 1,040,000 |

## 输入到 PaddlePaddle 中
S
Superjom 已提交
238

S
Superjom 已提交
239
Deep 和 Wide 两部分均以 `sparse_binary_vector` 的格式 \[[1](https://github.com/PaddlePaddle/Paddle/blob/develop/doc/api/v1/data_provider/pydataprovider2_en.rst)\] 输入,输入前需要将相关特征拼合,模型最终只接受 3 个 input,
S
Superjom 已提交
240 241
分别是

S
wrap ~  
Superjom 已提交
242 243 244
1.  `dnn input` ,DNN 的输入
2.  `lr input` , LR 的输入
3.  `click`  , 标签
S
Superjom 已提交
245 246 247

拼合特征的方法:

S
Superjom 已提交
248
```python
S
Superjom 已提交
249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266
def concat_sparse_vectors(inputs, dims):
    '''
    concaterate sparse vectors into one

    @inputs: list
        list of sparse vector
    @dims: list of int
        dimention of each sparse vector
    '''
    res = []
    assert len(inputs) == len(dims)
    start = 0
    for no, vec in enumerate(inputs):
        for v in vec:
            res.append(v + start)
        start += dims[no]
    return res
```
S
Superjom 已提交
267

S
Superjom 已提交
268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286
生成最终特征的代码如下:

```python
# dimentions of the features
categorial_dims = [
    feature_dims[key] for key in categorial_features + ['hour']
]
id_dims = [feature_dims[key] for key in id_features]

dense_input = concat_sparse_vectors(record, categorial_dims)
sparse_input = concat_sparse_vectors(record, id_dims)

record = [dense_input, sparse_input]
record.append(list((int(row['click']), )))
yield record
```

## 参考文献

S
Superjom 已提交
287
1. <https://github.com/PaddlePaddle/Paddle/blob/develop/doc/api/v1/data_provider/pydataprovider2_en.rst>
S
Superjom 已提交
288 289
2. Mikolov T, Deoras A, Povey D, et al. [Strategies for training large scale neural network language models](https://www.researchgate.net/profile/Lukas_Burget/publication/241637478_Strategies_for_training_large_scale_neural_network_language_models/links/542c14960cf27e39fa922ed3.pdf)[C]//Automatic Speech Recognition and Understanding (ASRU), 2011 IEEE Workshop on. IEEE, 2011: 196-201.
3. <https://www.kaggle.com/c/avazu-ctr-prediction/data>