Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleRec
提交
bb6e5db8
P
PaddleRec
项目概览
PaddlePaddle
/
PaddleRec
通知
68
Star
12
Fork
5
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
27
列表
看板
标记
里程碑
合并请求
10
Wiki
1
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleRec
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
27
Issue
27
列表
看板
标记
里程碑
合并请求
10
合并请求
10
Pages
分析
分析
仓库分析
DevOps
Wiki
1
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
bb6e5db8
编写于
6月 01, 2020
作者:
Y
yaoxuefeng
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix codes and readme
上级
6b39bbf3
变更
3
显示空白变更内容
内联
并排
Showing
3 changed file
with
3 addition
and
10 deletion
+3
-10
models/rank/din/model.py
models/rank/din/model.py
+0
-6
models/rank/readme.md
models/rank/readme.md
+1
-2
models/rank/xdeepfm/config.yaml
models/rank/xdeepfm/config.yaml
+2
-2
未找到文件。
models/rank/din/model.py
浏览文件 @
bb6e5db8
...
@@ -69,12 +69,6 @@ class Model(ModelBase):
...
@@ -69,12 +69,6 @@ class Model(ModelBase):
name
=
"target_cat_seq"
,
shape
=
[
None
,
seq_len
],
dtype
=
"int64"
)
name
=
"target_cat_seq"
,
shape
=
[
None
,
seq_len
],
dtype
=
"int64"
)
self
.
data_var
.
append
(
target_cat_seq
)
self
.
data_var
.
append
(
target_cat_seq
)
#if self.use_DataLoader:
# self._data_loader = fluid.io.DataLoader.from_generator(
# feed_list=self.data_var,
# capacity=10000,
# use_double_buffer=False,
# iterable=False)
train_inputs
=
[
hist_item_seq
]
+
[
hist_cat_seq
]
+
[
target_item
]
+
[
train_inputs
=
[
hist_item_seq
]
+
[
hist_cat_seq
]
+
[
target_item
]
+
[
target_cat
target_cat
]
+
[
label
]
+
[
mask
]
+
[
target_item_seq
]
+
[
target_cat_seq
]
]
+
[
label
]
+
[
mask
]
+
[
target_item_seq
]
+
[
target_cat_seq
]
...
...
models/rank/readme.md
浏览文件 @
bb6e5db8
...
@@ -59,7 +59,6 @@
...
@@ -59,7 +59,6 @@
## 使用教程(快速开始)
## 使用教程(快速开始)
使用样例数据快速开始,参考
[
训练
](
###训练
)
&
[
预测
](
###预测
)
使用样例数据快速开始,参考
[
训练
](
###训练
)
&
[
预测
](
###预测
)
## 使用教程(复现论文)
## 使用教程(复现论文)
### 注意
为了方便使用者能够快速的跑通每一个模型,我们在每个模型下都提供了样例数据,并且调整了batch_size等超参以便在样例数据上更加友好的显示训练&测试日志。如果需要复现readme中的效果请按照如下表格调整batch_size等超参,并使用提供的脚本下载对应数据集以及数据预处理。
为了方便使用者能够快速的跑通每一个模型,我们在每个模型下都提供了样例数据,并且调整了batch_size等超参以便在样例数据上更加友好的显示训练&测试日志。如果需要复现readme中的效果请按照如下表格调整batch_size等超参,并使用提供的脚本下载对应数据集以及数据预处理。
| 模型 | batch_size | thread_num | epoch_num |
| 模型 | batch_size | thread_num | epoch_num |
| :------------------: | :--------------------: | :--------------------: | :--------------------: |
| :------------------: | :--------------------: | :--------------------: | :--------------------: |
...
@@ -89,7 +88,7 @@ python -m paddlerec.run -m ./config.yaml # 自定义修改超参后,指定配
...
@@ -89,7 +88,7 @@ python -m paddlerec.run -m ./config.yaml # 自定义修改超参后,指定配
# 修改对应模型的config.yaml,mode配置infer_runner
# 修改对应模型的config.yaml,mode配置infer_runner
# 示例: mode: runner1 -> mode: infer_runner
# 示例: mode: runner1 -> mode: infer_runner
# infer_runner中 class配置为 class: single_infer
# infer_runner中 class配置为 class: single_infer
# 如果训练阶段和预测阶段的模型输入一
直
phase不需要改动,复用train的即可
# 如果训练阶段和预测阶段的模型输入一
致,
phase不需要改动,复用train的即可
# 修改完config.yaml后 执行:
# 修改完config.yaml后 执行:
python -m paddlerec.run -m ./config.yaml # 以DNN为例
python -m paddlerec.run -m ./config.yaml # 以DNN为例
...
...
models/rank/xdeepfm/config.yaml
浏览文件 @
bb6e5db8
...
@@ -16,13 +16,13 @@ workspace: "paddlerec.models.rank.xdeepfm"
...
@@ -16,13 +16,13 @@ workspace: "paddlerec.models.rank.xdeepfm"
dataset
:
dataset
:
-
name
:
sample_1
-
name
:
sample_1
type
:
QueueDataset
#或者
QueueDataset
type
:
QueueDataset
#或者
DataLoader
batch_size
:
5
batch_size
:
5
data_path
:
"
{workspace}/data/sample_data/train"
data_path
:
"
{workspace}/data/sample_data/train"
sparse_slots
:
"
label
feat_idx"
sparse_slots
:
"
label
feat_idx"
dense_slots
:
"
feat_value:39"
dense_slots
:
"
feat_value:39"
-
name
:
infer_sample
-
name
:
infer_sample
type
:
QueueDataset
#或者
QueueDataset
type
:
QueueDataset
#或者
DataLoader
batch_size
:
5
batch_size
:
5
data_path
:
"
{workspace}/data/sample_data/train"
data_path
:
"
{workspace}/data/sample_data/train"
sparse_slots
:
"
label
feat_idx"
sparse_slots
:
"
label
feat_idx"
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录