Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
models
提交
04fbeb5e
M
models
项目概览
PaddlePaddle
/
models
大约 2 年 前同步成功
通知
232
Star
6828
Fork
2962
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
602
列表
看板
标记
里程碑
合并请求
255
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
M
models
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
602
Issue
602
列表
看板
标记
里程碑
合并请求
255
合并请求
255
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
04fbeb5e
编写于
5月 26, 2017
作者:
S
Superjom
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
update markdown files
上级
4f6dd9d3
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
121 addition
and
102 deletion
+121
-102
ctr/README.md
ctr/README.md
+69
-57
ctr/dataset.md
ctr/dataset.md
+52
-45
未找到文件。
ctr/README.md
浏览文件 @
04fbeb5e
...
...
@@ -2,48 +2,48 @@
<h2>
Table of Contents
</h2>
<div
id=
"text-table-of-contents"
>
<ul>
<li><a
href=
"#org
d3b5e47
"
>
1. 背景介绍
</a>
<li><a
href=
"#org
50629cf
"
>
1. 背景介绍
</a>
<ul>
<li><a
href=
"#org
281ac04
"
>
1.1. LR vs DNN
</a></li>
<li><a
href=
"#org
82d29f2
"
>
1.1. LR vs DNN
</a></li>
</ul>
</li>
<li><a
href=
"#org7
b0794d
"
>
2. 数据和任务抽象
</a></li>
<li><a
href=
"#org
b7d416a
"
>
3. Wide
&
Deep Learning Model
</a>
<li><a
href=
"#org7
1b628e
"
>
2. 数据和任务抽象
</a></li>
<li><a
href=
"#org
a33b812
"
>
3. Wide
&
Deep Learning Model
</a>
<ul>
<li><a
href=
"#org
34e65a5
"
>
3.1. 模型简介
</a></li>
<li><a
href=
"#org
9aab6a2
"
>
3.2. 编写模型输入
</a></li>
<li><a
href=
"#org
28eef19
"
>
3.3. 编写 Wide 部分
</a></li>
<li><a
href=
"#org
a6a8e51
"
>
3.4. 编写 Deep 部分
</a></li>
<li><a
href=
"#org
447552d
"
>
3.5. 两者融合
</a></li>
<li><a
href=
"#org
bf70727
"
>
3.6. 训练任务的定义
</a></li>
<li><a
href=
"#org
83aff73
"
>
3.1. 模型简介
</a></li>
<li><a
href=
"#org
5ea2bba
"
>
3.2. 编写模型输入
</a></li>
<li><a
href=
"#org
17c16e7
"
>
3.3. 编写 Wide 部分
</a></li>
<li><a
href=
"#org
ed3e908
"
>
3.4. 编写 Deep 部分
</a></li>
<li><a
href=
"#org
80056a6
"
>
3.5. 两者融合
</a></li>
<li><a
href=
"#org
6afcbfa
"
>
3.6. 训练任务的定义
</a></li>
</ul>
</li>
<li><a
href=
"#org
efd4d16"
>
4. 写在最后
</a></li>
<li><a
href=
"#org
bfe2993"
>
4. 引用
</a></li>
</ul>
</div>
</div>
<a
id=
"org
d3b5e47
"
></a>
<a
id=
"org
50629cf
"
></a>
# 背景介绍
CTR(Click-through rate) 是用来表示用户点击一个特定链接的概率,
CTR(Click-through rate) 是用来表示用户点击一个特定链接的概率,
通常被用来衡量一个在线广告系统的有效性。
当有多个广告位时,CTR 预估一般会作为排序的基准。
比如在搜索引擎的广告系统里,当用户输入一个带商业价值的搜索词(query)时,系统大体上会执行下列步骤:
比如在搜索引擎的广告系统里,当用户输入一个带商业价值的搜索词(query)时,系统大体上会执行下列步骤
来展示广告
:
1.
召回满足 query 的广告集合
2.
业务规则和相关性过滤
3.
根据拍卖机制和 CTR 排序
4.
展出
4.
展出
广告
可以看到,CTR 在最终排序中起到了很重要的作用。
在业内,CTR 模型经历了如下的发展阶段:
-
Logistic Regression(LR) + 特征工程
-
Logistic Regression(LR)
/ GBDT
+ 特征工程
-
LR + DNN 特征
-
DNN + 特征工程
...
...
@@ -51,52 +51,53 @@ CTR(Click-through rate) 是用来表示用户点击一个特定链接的概率
逐渐地接过 CTR 预估任务的大旗。
<a
id=
"org
281ac04
"
></a>
<a
id=
"org
82d29f2
"
></a>
## LR vs DNN
下图展示了 LR 和一个
\(
3x2
\)
的 NN 模型的结构:


LR 部分和蓝色箭头部分可以直接类比到 NN 中的结构,可以看到 LR 和 NN 有一些共通之处(比如权重累加),
但前者的模型复杂度在相同输入维度下比后者可能
第
很多(从某方面讲,模型越复杂,越有潜力学习到更复杂的信息)。
但前者的模型复杂度在相同输入维度下比后者可能
低
很多(从某方面讲,模型越复杂,越有潜力学习到更复杂的信息)。
如果 LR 要达到匹敌 NN 的学习能力,必须增加输入的维度,也就是增加特征的数量
(作为输入)
,
如果 LR 要达到匹敌 NN 的学习能力,必须增加输入的维度,也就是增加特征的数量,
这也就是为何 LR 和大规模的特征工程必须绑定在一起的原因。
LR 对于 NN 模型的优势是对大规模稀疏特征的容纳能力,包括内存和计算量等方面,工业界都有非常成熟的优化方法。
而 NN 模型具有自己学习新特征的能力,一定程度上能够提升特征使用的效率,
这使得 NN 模型在同样规模特征的情况下,更有可能达到更好的学习效果。
LR 对于 NN 模型的优势是对大规模稀疏特征的容纳能力,包括内存和计算量等,工业界都有非常成熟的优化方法。
本文后面的章节会演示如何使用 PaddlePaddle 编写一个结合两者优点的模型。
<a
id=
"org7
b0794d
"
></a>
<a
id=
"org7
1b628e
"
></a>
# 数据和任务抽象
我们可以将
\`
click
\
`
作为学习目标,具体任务可以有以下几种方案:
我们可以将
`click
`
作为学习目标,具体任务可以有以下几种方案:
1.
直接学习 click,0,1 作二元分类,或 pairwise rank(标签 1>0)
2.
统计每个广告的点击率,将同一个 query 下的广告两两组合,点击率高的>点击率低的
1.
直接学习 click,0,1 作二元分类
2.
Learning to rank, 具体用 pairwise rank(标签 1>0)或者 list rank
3.
统计每个广告的点击率,将同一个 query 下的广告两两组合,点击率高的>点击率低的,做 rank 或者分类
这里,
我们直接使用第一种方法做分类任务。
我们直接使用第一种方法做分类任务。
我们使用 Kaggle 上
\`
Click-through rate prediction
\`
任务的数据集[1
] 来演示模型。
我们使用 Kaggle 上
`Click-through rate prediction`
任务的数据集[3
] 来演示模型。
具体的特征处理方法参看
[
data process
](
./dataset.md
)
<a
id=
"org
b7d416a
"
></a>
<a
id=
"org
a33b812
"
></a>
# Wide & Deep Learning Model
谷歌在 16 年提出了 Wide & Deep Learning 的模型框架,用于融合
适合学习抽象特征的 DNN 和 适用于大规模系数
特征的 LR 两种模型的优点。
谷歌在 16 年提出了 Wide & Deep Learning 的模型框架,用于融合
适合学习抽象特征的 DNN 和 适用于大规模稀疏
特征的 LR 两种模型的优点。
<a
id=
"org
34e65a5
"
></a>
<a
id=
"org
83aff73
"
></a>
## 模型简介
...
...
@@ -105,47 +106,54 @@ Wide & Deep Learning Model 可以作为一种相对成熟的模型框架使用
模型结构如下:


模型左边的 Wide 部分,可以容纳大规模系数特征,并且对一些特定的信息(比如 ID)有一定的记忆能力;
而模型右边的 Deep 部分,能够学习特征间的隐含关系,在相同数量的特征下有更好的学习和推导能力。
<a
id=
"org
9aab6a2
"
></a>
<a
id=
"org
5ea2bba
"
></a>
## 编写模型输入
模型只接受 3 个输入,分别是
-
\`
dnn
<sub>
input
</sub>
\
`
,也就是 Deep 部分的输入
-
\`
lr
<sub>
input
</sub>
\
`
,也就是 Wide 部分的输入
-
\`
click
\
`
, 点击与否,作为二分类模型学习的标签
-
`dnn_input
`
,也就是 Deep 部分的输入
-
`lr_input
`
,也就是 Wide 部分的输入
-
`click
`
, 点击与否,作为二分类模型学习的标签
```
python
dnn_merged_input
=
layer
.
data
(
name
=
'dnn_input'
,
type
=
paddle
.
data_type
.
sparse_binary_vector
(
data_meta_info
[
'dnn_input'
]))
lr_merged_input
=
layer
.
data
(
name
=
'lr_input'
,
type
=
paddle
.
data_type
.
sparse_binary_vector
(
data_meta_info
[
'lr_input'
]))
click
=
paddle
.
layer
.
data
(
name
=
'click'
,
type
=
dtype
.
dense_vector
(
1
))
<a
id=
"org
28eef19
"
></a>
<
a
id
=
"org
17c16e7
"
></
a
>
## 编写 Wide 部分
Wide
部分直接使用了
LR
模型
,
但激活函数改成了
`RELU`
来加速
```
python
def build_lr_submodel():
fc = layer.fc(
input=lr_merged_input, size=1, name='lr', act=paddle.activation.Relu())
return fc
<a
id=
"org
a6a8e51
"
></a>
<a
id=
"org
ed3e908
"
></a>
## 编写 Deep 部分
Deep 部分使用了标准的多层前向传导的 NN 模型
```
python
def
build_dnn_submodel
(
dnn_layer_dims
):
dnn_embedding
=
layer
.
fc
(
input
=
dnn_merged_input
,
size
=
dnn_layer_dims
[
0
])
_input_layer
=
dnn_embedding
...
...
@@ -159,10 +167,14 @@ Wide & Deep Learning Model 可以作为一种相对成熟的模型框架使用
return
_input_layer
<a
id=
"org
447552d
"
></a>
<
a
id
=
"org
80056a6
"
></
a
>
## 两者融合
两个
submodel
的最上层输出加权求和得到整个模型的输出
,
输出部分使用
`sigmoid`
作为激活函数
,
得到区间
\
((
0
,
1
)
\
)
的预测值
,
来逼近训练数据中二元类别的分布
,
最终作为
CTR
预估的值使用
。
```
python
# conbine DNN and LR submodels
def combine_submodels(dnn, lr):
merge_layer = layer.concat(input=[dnn, lr])
...
...
@@ -175,43 +187,44 @@ Wide & Deep Learning Model 可以作为一种相对成熟的模型框架使用
return fc
<a
id=
"org
bf70727
"
></a>
<a
id=
"org
6afcbfa
"
></a>
## 训练任务的定义
```
python
dnn
=
build_dnn_submodel
(
dnn_layer_dims
)
lr
=
build_lr_submodel
()
output
=
combine_submodels
(
dnn
,
lr
)
# ==============================================================================
# cost and train period
# ==============================================================================
classification_cost
=
paddle
.
layer
.
multi_binary_label_cross_entropy_cost
(
input
=
output
,
label
=
click
)
params
=
paddle
.
parameters
.
create
(
classification_cost
)
optimizer
=
paddle
.
optimizer
.
Momentum
(
momentum
=
0
)
trainer
=
paddle
.
trainer
.
SGD
(
cost
=
classification_cost
,
parameters
=
params
,
update_equation
=
optimizer
)
dataset
=
AvazuDataset
(
train_data_path
,
n_records_as_test
=
test_set_size
)
def
event_handler
(
event
):
if
isinstance
(
event
,
paddle
.
event
.
EndIteration
):
if
event
.
batch_id
%
100
==
0
:
logging
.
warning
(
"Pass %d, Samples %d, Cost %f"
%
(
event
.
pass_id
,
event
.
batch_id
*
batch_size
,
event
.
cost
))
if
event
.
batch_id
%
1000
==
0
:
result
=
trainer
.
test
(
reader
=
paddle
.
batch
(
dataset
.
test
,
batch_size
=
1000
),
feeding
=
field_index
)
logging
.
warning
(
"Test %d-%d, Cost %f"
%
(
event
.
pass_id
,
event
.
batch_id
,
result
.
cost
))
trainer
.
train
(
reader
=
paddle
.
batch
(
paddle
.
reader
.
shuffle
(
dataset
.
train
,
buf_size
=
500
),
...
...
@@ -221,13 +234,12 @@ Wide & Deep Learning Model 可以作为一种相对成熟的模型框架使用
num_passes
=
100
)
<a
id=
"org
efd4d16
"
></a>
<
a
id
=
"org
bfe2993
"
></
a
>
#
写在最后
#
引用
-
[
1
]
<
https
:
//
en
.
wikipedia
.
org
/
wiki
/
Click
-
through_rate
>
-
[2] Strategies for Training Large Scale Neural Network Language Models
-
<https://www.kaggle.com/c/avazu-ctr-prediction/data>
[1]
<https://www.kaggle.com/c/avazu-ctr-prediction/data>
-
[
2
]
Mikolov
,
Tomáš
,
et
al
.
"Strategies for training large scale neural network language models."
Automatic
Speech
Recognition
and
Understanding
(
ASRU
),
2011
IEEE
Workshop
on
.
IEEE
,
2011.
-
[
3
]
<
https
:
//
www
.
kaggle
.
com
/
c
/
avazu
-
ctr
-
prediction
/
data
>
-
[
4
]
Cheng
,
Heng
-
Tze
,
et
al
.
"Wide & deep learning for recommender systems."
Proceedings
of
the
1
st
Workshop
on
Deep
Learning
for
Recommender
Systems
.
ACM
,
2016.
ctr/dataset.md
浏览文件 @
04fbeb5e
...
...
@@ -2,38 +2,38 @@
<h2>
Table of Contents
</h2>
<div
id=
"text-table-of-contents"
>
<ul>
<li><a
href=
"#org
b697e2a
"
>
1. 数据集介绍
</a></li>
<li><a
href=
"#org
912d23e
"
>
2. 特征提取
</a>
<li><a
href=
"#org
a96c5e8
"
>
1. 数据集介绍
</a></li>
<li><a
href=
"#org
e73ddcc
"
>
2. 特征提取
</a>
<ul>
<li><a
href=
"#org
59e1a78
"
>
2.1. 类别类特征
</a></li>
<li><a
href=
"#org
ad86672
"
>
2.2. ID 类特征
</a></li>
<li><a
href=
"#org
eed4bfc
"
>
2.3. 数值型特征
</a></li>
<li><a
href=
"#org
be379b1
"
>
2.1. 类别类特征
</a></li>
<li><a
href=
"#org
811ca7c
"
>
2.2. ID 类特征
</a></li>
<li><a
href=
"#org
c1d7d23
"
>
2.3. 数值型特征
</a></li>
</ul>
</li>
<li><a
href=
"#org
bb21fbb
"
>
3. 特征处理
</a>
<li><a
href=
"#org
609b660
"
>
3. 特征处理
</a>
<ul>
<li><a
href=
"#org
9105d6
2"
>
3.1. 类别型特征
</a></li>
<li><a
href=
"#org
6131dd5
"
>
3.2. ID 类特征
</a></li>
<li><a
href=
"#org
64a5228
"
>
3.3. 交叉类特征
</a></li>
<li><a
href=
"#org
dfa3224
"
>
3.4. 特征维度
</a>
<li><a
href=
"#org
5fdd53
2"
>
3.1. 类别型特征
</a></li>
<li><a
href=
"#org
ad85d3e
"
>
3.2. ID 类特征
</a></li>
<li><a
href=
"#org
0cbe90e
"
>
3.3. 交叉类特征
</a></li>
<li><a
href=
"#org
4bdb372
"
>
3.4. 特征维度
</a>
<ul>
<li><a
href=
"#org
4c15bfb
"
>
3.4.1. Deep submodel(DNN)特征
</a></li>
<li><a
href=
"#org
a3f2dd5
"
>
3.4.2. Wide submodel(LR)特征
</a></li>
<li><a
href=
"#org
0530a25
"
>
3.4.1. Deep submodel(DNN)特征
</a></li>
<li><a
href=
"#org
ed20ff2
"
>
3.4.2. Wide submodel(LR)特征
</a></li>
</ul>
</li>
</ul>
</li>
<li><a
href=
"#org
55405cd
"
>
4. 输入到 PaddlePaddle 中
</a></li>
<li><a
href=
"#org
70ad7d8
"
>
4. 输入到 PaddlePaddle 中
</a></li>
</ul>
</div>
</div>
<a
id=
"org
b697e2a
"
></a>
<a
id=
"org
a96c5e8
"
></a>
# 数据集介绍
数据集使用
\`
csv
\
`
格式存储,其中各个字段内容如下:
数据集使用
`csv
`
格式存储,其中各个字段内容如下:
-
id: ad identifier
-
click: 0/1 for non-click/click
...
...
@@ -54,31 +54,34 @@
-
C14-C21
–
anonymized categorical variables
<a
id=
"org
912d23e
"
></a>
<a
id=
"org
e73ddcc
"
></a>
# 特征提取
下面我们会简单演示几种特征的提取方式。
下面我们会简单演示几种特征的提取方式。
原始数据中的特征可以分为以下几类:
1.
ID 类特征(稀疏,数量多)
```
python
-
id
-
site
<
sub
>
id
</
sub
>
-
app
<
sub
>
id
</
sub
>
-
device
<
sub
>
id
</
sub
>
2.
类别类特征
(
稀疏
,
但数量有限
)
```
python
-
C1
-
site
<sub>
category
</sub>
-
device
<sub>
type
</sub>
-
C14-C21
3.
数值型特征转化为类别型特征
```
python
-
hour
(
可以转化成数值
,
也可以按小时为单位转化为类别
)
<a
id=
"org
59e1a78
"
></a>
<
a
id
=
"org
be379b1
"
></
a
>
## 类别类特征
...
...
@@ -88,7 +91,7 @@
2.
类似词向量
,
用一个
Embedding
Table
将每个类别映射到对应的向量
<a
id=
"org
ad86672
"
></a>
<
a
id
=
"org
811ca7c
"
></
a
>
## ID 类特征
...
...
@@ -103,7 +106,7 @@ ID 类特征的特点是稀疏数据,但量比较大,直接使用 One-hot
上面的方法尽管存在一定的碰撞概率
,
但能够处理任意数量的
ID
特征
,
并保留一定的效果
[
2
]
。
<a
id=
"org
eed4bfc
"
></a>
<
a
id
=
"org
c1d7d23
"
></
a
>
## 数值型特征
...
...
@@ -113,12 +116,12 @@ ID 类特征的特点是稀疏数据,但量比较大,直接使用 One-hot
-
用区间分割处理成类别类特征
,
稀疏化表示
,
模糊细微上的差别
<a
id=
"org
bb21fbb
"
></a>
<
a
id
=
"org
609b660
"
></
a
>
# 特征处理
<a
id=
"org
9105d6
2"
></a>
<
a
id
=
"org
5fdd53
2"
></
a
>
## 类别型特征
...
...
@@ -126,18 +129,19 @@ ID 类特征的特点是稀疏数据,但量比较大,直接使用 One-hot
这种特征在输入到模型时
,
一般使用
One
-
hot
表示
,
相关处理方法如下
:
```
python
class CategoryFeatureGenerator(object):
'''
Generator category features.
Register all records by calling
`register` first, then call `gen`
to generate
Register all records by calling
~register~ first, then call ~gen~
to generate
one-hot representation for a record.
'''
def __init__(self):
self.dic = {'unk': 0}
self.counter = 1
def register(self, key):
'''
Register record.
...
...
@@ -145,10 +149,10 @@ ID 类特征的特点是稀疏数据,但量比较大,直接使用 One-hot
if key not in self.dic:
self.dic[key] = self.counter
self.counter += 1
def size(self):
return len(self.dic)
def gen(self, key):
'''
Generate one-hot representation for a record.
...
...
@@ -158,20 +162,21 @@ ID 类特征的特点是稀疏数据,但量比较大,直接使用 One-hot
else:
res = self.dic[key]
return [res]
def __repr__(self):
return '<CategoryFeatureGenerator %d>' % len(self.dic)
本任务中,类别类特征会输入到 DNN 中使用。
<a
id=
"org
6131dd5
"
></a>
<a
id=
"org
ad85d3e
"
></a>
## ID 类特征
ID 类特征代稀疏值,且值的空间很大的情况,一般用模操作规约到一个有限空间,
之后可以当成类别类特征使用,这里我们会将 ID 类特征输入到 LR 模型中使用。
```
python
class
IDfeatureGenerator
(
object
):
def
__init__
(
self
,
max_dim
):
'''
...
...
@@ -179,40 +184,41 @@ ID 类特征代稀疏值,且值的空间很大的情况,一般用模操作
Size of the id elements' space
'''
self
.
max_dim
=
max_dim
def
gen
(
self
,
key
):
'''
Generate one-hot representation for records
'''
return
[
hash
(
key
)
%
self
.
max_dim
]
def
size
(
self
):
return
self
.
max_dim
<a
id=
"org
64a5228
"
></a>
<
a
id
=
"org
0cbe90e
"
></
a
>
## 交叉类特征
LR 模型作为 Wide & Deep model 的
\`
wide
\
`
部分,可以输入很 wide 的数据(特征空间的维度很大),
LR
模型作为
Wide
&
Deep
model
的
`wide
`
部分
,
可以输入很
wide
的数据
(
特征空间的维度很大
),
为了充分利用这个优势
,
我们将演示交叉组合特征构建成更大维度特征的情况
,
之后塞入到模型中训练
。
这里我们依旧使用模操作来约束最终组合出的特征空间的大小,具体实现是直接在
\`
IDfeatureGenerator
\`
中添加一个
\`
gen
<sub>
cross
</sub><sub>
feature
</sub>
\`
的方法:
这里我们依旧使用模操作来约束最终组合出的特征空间的大小
,
具体实现是直接在
`IDfeatureGenerator`
中添加一个
~
gen
<
sub
>
cross
</
sub
><
sub
>
feature
</
sub
>~
的方法
:
```
python
def gen_cross_fea(self, fea1, fea2):
key = str(fea1) + str(fea2)
return self.gen(key)
比如,我们觉得原始数据中,
\`
device
<sub>
id
</sub>
\`
和
\`
site
<sub>
id
</sub>
\
`
有一些关联(比如某个 device 倾向于浏览特定 site),
比如,我们觉得原始数据中,
`device_id`
和
`site_id
`
有一些关联(比如某个 device 倾向于浏览特定 site),
我们通过组合出两者组合来捕捉这类信息。
<a
id=
"org
dfa3224
"
></a>
<a
id=
"org
4bdb372
"
></a>
## 特征维度
<a
id=
"org
4c15bfb
"
></a>
<a
id=
"org
0530a25
"
></a>
### Deep submodel(DNN)特征
...
...
@@ -271,7 +277,7 @@ LR 模型作为 Wide & Deep model 的 \`wide\` 部分,可以输入很 wide 的
</table>
<a
id=
"org
a3f2dd5
"
></a>
<a
id=
"org
ed20ff2
"
></a>
### Wide submodel(LR)特征
...
...
@@ -330,23 +336,24 @@ LR 模型作为 Wide & Deep model 的 \`wide\` 部分,可以输入很 wide 的
</table>
<a
id=
"org
55405cd
"
></a>
<a
id=
"org
70ad7d8
"
></a>
# 输入到 PaddlePaddle 中
Deep 和 Wide 两部分均以
\`
sparse
<sub>
binary
</sub><sub>
vector
</sub>
\
`
的格式[1]输入,输入前需要将相关特征拼合,模型最终只接受 3 个 input,
Deep 和 Wide 两部分均以
`sparse_binary_vector
`
的格式[1]输入,输入前需要将相关特征拼合,模型最终只接受 3 个 input,
分别是
1.
\`
dnn input
\`
,DNN 的输入
2.
\`
lr input
\
`
, LR 的输入
3.
\`
click
\`
, 标签
1.
~dnn input~
,DNN 的输入
2.
`lr input
`
, LR 的输入
3.
~click~
, 标签
拼合特征的方法:
```
python
def
concat_sparse_vectors
(
inputs
,
dims
):
'''
concaterate sparse vectors into one
@inputs: list
list of sparse vector
@dims: list of int
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录