Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
BaiXuePrincess
PaddleRec
提交
654ba717
P
PaddleRec
项目概览
BaiXuePrincess
/
PaddleRec
与 Fork 源项目一致
Fork自
PaddlePaddle / PaddleRec
通知
1
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleRec
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
654ba717
编写于
5月 28, 2020
作者:
X
xjqbest
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix
上级
421c293f
变更
2
显示空白变更内容
内联
并排
Showing
2 changed file
with
26 addition
and
19 deletion
+26
-19
core/trainers/single_trainer.py
core/trainers/single_trainer.py
+2
-4
models/rank/dnn/config.yaml
models/rank/dnn/config.yaml
+24
-15
未找到文件。
core/trainers/single_trainer.py
浏览文件 @
654ba717
...
@@ -132,7 +132,7 @@ class SingleTrainer(TranspileTrainer):
...
@@ -132,7 +132,7 @@ class SingleTrainer(TranspileTrainer):
padding
=
0
padding
=
0
if
type_name
==
"DataLoader"
:
if
type_name
==
"DataLoader"
:
return
None
#self._get_dataloader(dataset_name)
return
None
else
:
else
:
return
self
.
_get_dataset
(
dataset_name
)
return
self
.
_get_dataset
(
dataset_name
)
...
@@ -243,7 +243,6 @@ class SingleTrainer(TranspileTrainer):
...
@@ -243,7 +243,6 @@ class SingleTrainer(TranspileTrainer):
metrics_varnames
=
[]
metrics_varnames
=
[]
metrics_format
=
[]
metrics_format
=
[]
fetch_period
=
20
fetch_period
=
20
#metrics_format.append("{}: {{}}".format("epoch"))
metrics_format
.
append
(
"{}: {{}}"
.
format
(
"batch"
))
metrics_format
.
append
(
"{}: {{}}"
.
format
(
"batch"
))
for
name
,
var
in
model_class
.
get_metrics
().
items
():
for
name
,
var
in
model_class
.
get_metrics
().
items
():
metrics_varnames
.
append
(
var
.
name
)
metrics_varnames
.
append
(
var
.
name
)
...
@@ -259,7 +258,7 @@ class SingleTrainer(TranspileTrainer):
...
@@ -259,7 +258,7 @@ class SingleTrainer(TranspileTrainer):
while
True
:
while
True
:
metrics_rets
=
self
.
_exe
.
run
(
program
=
program
,
metrics_rets
=
self
.
_exe
.
run
(
program
=
program
,
fetch_list
=
metrics_varnames
)
fetch_list
=
metrics_varnames
)
metrics
=
[
batch_id
]
#[epoch, batch_id]
metrics
=
[
batch_id
]
metrics
.
extend
(
metrics_rets
)
metrics
.
extend
(
metrics_rets
)
if
batch_id
%
fetch_period
==
0
and
batch_id
!=
0
:
if
batch_id
%
fetch_period
==
0
and
batch_id
!=
0
:
...
@@ -275,7 +274,6 @@ class SingleTrainer(TranspileTrainer):
...
@@ -275,7 +274,6 @@ class SingleTrainer(TranspileTrainer):
dirname
=
envs
.
get_global_env
(
"epoch.init_model_path"
,
None
)
dirname
=
envs
.
get_global_env
(
"epoch.init_model_path"
,
None
)
if
dirname
is
None
:
if
dirname
is
None
:
return
return
dirname
=
os
.
path
.
join
(
dirname
,
str
(
epoch_id
))
if
is_fleet
:
if
is_fleet
:
fleet
.
load_persistables
(
self
.
_exe
,
dirname
)
fleet
.
load_persistables
(
self
.
_exe
,
dirname
)
else
:
else
:
...
...
models/rank/dnn/config.yaml
浏览文件 @
654ba717
...
@@ -12,43 +12,52 @@
...
@@ -12,43 +12,52 @@
# See the License for the specific language governing permissions and
# See the License for the specific language governing permissions and
# limitations under the License.
# limitations under the License.
debug
:
false
# 轮数
cold_start
:
true
epochs
:
10
epochs
:
10
# 设备
device
:
cpu
device
:
cpu
# 工作目录
workspace
:
"
paddlerec.models.rank.dnn"
workspace
:
"
paddlerec.models.rank.dnn"
# dataset列表
dataset
:
dataset
:
-
name
:
dataset_2
-
name
:
dataset_2
# 名字,用来区分不同的dataset
batch_size
:
2
batch_size
:
2
#type: QueueDataset
type
:
DataLoader
# 或者QueueDataset
type
:
DataLoader
data_path
:
"
{workspace}/data/sample_data/train"
# 数据路径
data_path
:
"
{workspace}/data/sample_data/train"
sparse_slots
:
"
click
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26"
sparse_slots
:
"
click
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26"
dense_slots
:
"
dense_var:13"
dense_slots
:
"
dense_var:13"
# 超参数
hyper_parameters
:
hyper_parameters
:
#优化器
optimizer
:
optimizer
:
class
:
Adam
class
:
Adam
learning_rate
:
0.001
learning_rate
:
0.001
strategy
:
async
strategy
:
async
# 用户自定义
sparse_inputs_slots
:
27
sparse_inputs_slots
:
27
sparse_feature_number
:
1000001
sparse_feature_number
:
1000001
sparse_feature_dim
:
9
sparse_feature_dim
:
9
dense_input_dim
:
13
dense_input_dim
:
13
fc_sizes
:
[
512
,
256
,
128
,
32
]
fc_sizes
:
[
512
,
256
,
128
,
32
]
# executor配置
epoch
:
epoch
:
name
:
name
:
trainer_class
:
single
trainer_class
:
single
save_checkpoint_interval
:
2
save_checkpoint_interval
:
2
# 保存模型
save_inference_interval
:
4
save_inference_interval
:
4
# 保存预测模型
save_checkpoint_path
:
"
increment"
save_checkpoint_path
:
"
increment"
# 保存模型路径
save_inference_path
:
"
inference"
save_inference_path
:
"
inference"
# 保存预测模型路径
#save_inference_feed_varnames: [] # 预测模型feed vars
#save_inference_fetch_varnames: [] # 预测模型 fetch vars
#init_model_path: "xxxx" # 加载模型
# 执行器,每轮要跑的所有模型
executor
:
executor
:
-
name
:
train
-
name
:
train
model
:
"
{workspace}/model.py"
model
:
"
{workspace}/model.py"
# 模型路径
dataset_name
:
dataset_2
dataset_name
:
dataset_2
# 名字,用来区分不同的阶段
thread_num
:
1
thread_num
:
1
# 线程数
is_infer
:
False
is_infer
:
False
# 是否是infer
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录