Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
机器未来
Paddle
提交
71c2b296
P
Paddle
项目概览
机器未来
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
1
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
1
Issue
1
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
71c2b296
编写于
10月 20, 2017
作者:
T
typhoonzero
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
update
上级
23785584
变更
3
显示空白变更内容
内联
并排
Showing
3 changed file
with
36 addition
and
0 deletion
+36
-0
python/paddle/v2/parameters.py
python/paddle/v2/parameters.py
+4
-0
python/paddle/v2/topology.py
python/paddle/v2/topology.py
+27
-0
python/paddle/v2/trainer.py
python/paddle/v2/trainer.py
+5
-0
未找到文件。
python/paddle/v2/parameters.py
浏览文件 @
71c2b296
...
...
@@ -101,6 +101,10 @@ class Parameters(object):
self
.
__param_conf__
[
param_conf
.
name
]
=
param_conf
def
update_param_conf
(
self
,
model_config
):
for
p
in
model_config
.
parameters
:
self
.
__param_conf__
[
p
.
name
]
=
p
def
keys
(
self
):
"""
keys are the names of each parameter.
...
...
python/paddle/v2/topology.py
浏览文件 @
71c2b296
...
...
@@ -19,6 +19,7 @@ import paddle.trainer_config_helpers as conf_helps
import
layer
as
v2_layer
import
config_base
import
cPickle
from
paddle.trainer
import
config_parser
as
cp
__all__
=
[
'Topology'
]
...
...
@@ -50,6 +51,32 @@ class Topology(object):
assert
isinstance
(
self
.
__model_config__
,
ModelConfig
)
def
update_from_default
(
self
):
# HACK(typhoonzero): update ParameterConfig(proto) in case of optimizers
# are defined after layers, or between layers.
# Must be called from trainer.__init__()
for
parameter
in
self
.
__model_config__
.
parameters
:
print
"####"
,
parameter
.
decay_rate
,
cp
.
g_default_decay_rate
if
parameter
.
momentum
==
0.0
and
cp
.
g_default_momentum
:
parameter
.
momentum
=
cp
.
g_default_momentum
if
parameter
.
decay_rate
==
0.0
and
cp
.
g_default_decay_rate
:
parameter
.
decay_rate
=
cp
.
g_default_decay_rate
if
parameter
.
initial_mean
==
0.0
:
parameter
.
initial_mean
=
cp
.
g_default_initial_mean
if
parameter
.
initial_std
==
0.01
:
parameter
.
initial_std
=
cp
.
g_default_initial_std
if
parameter
.
initial_strategy
==
0
:
parameter
.
initial_strategy
=
cp
.
g_default_initial_strategy
if
parameter
.
initial_smart
==
False
:
parameter
.
initial_smart
=
cp
.
g_default_initial_smart
if
parameter
.
num_batches_regularization
==
1
and
cp
.
g_default_num_batches_regularization
:
parameter
.
num_batches_regularization
=
cp
.
g_default_num_batches_regularization
if
parameter
.
gradient_clipping_threshold
==
0.0
and
cp
.
g_default_gradient_clipping_threshold
:
parameter
.
gradient_clipping_threshold
=
cp
.
g_default_gradient_clipping_threshold
if
parameter
.
device
==
-
1
and
cp
.
g_default_device
:
parameter
.
device
=
cp
.
g_default_device
# FIXME(typhoonzero): ignored: update_hooks, g_default_compact_func
def
use_sparse_updater
(
self
):
"""
check if any parameter require to use sparse_update
...
...
python/paddle/v2/trainer.py
浏览文件 @
71c2b296
...
...
@@ -64,6 +64,11 @@ class SGD(object):
"paddle.v2.optimizer.Optimizer"
)
import
py_paddle.swig_paddle
as
api
topology
=
Topology
(
cost
,
extra_layers
=
extra_layers
)
# HACK(typhoonzero): update ParameterConfig(proto) in case of optimizers
# are defined after layers, or between layers.
topology
.
update_from_default
()
parameters
.
update_param_conf
(
topology
.
proto
())
self
.
__optimizer__
=
update_equation
self
.
__topology__
=
topology
self
.
__parameters__
=
parameters
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录