Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
机器未来
Paddle
提交
4d4593b9
P
Paddle
项目概览
机器未来
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
1
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
1
Issue
1
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
4d4593b9
编写于
5月 22, 2017
作者:
Y
Yibing Liu
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
code cleanup
上级
2e4c0bd2
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
2 addition
and
9 deletion
+2
-9
paddle/parameter/FirstOrderOptimizer.cpp
paddle/parameter/FirstOrderOptimizer.cpp
+2
-1
paddle/parameter/ParameterOptimizer.h
paddle/parameter/ParameterOptimizer.h
+0
-8
未找到文件。
paddle/parameter/FirstOrderOptimizer.cpp
浏览文件 @
4d4593b9
...
...
@@ -305,12 +305,13 @@ void AdamaxParameterOptimizer::update(const VectorPtr vecs[],
void
OptimizerWithGradientClipping
::
update
(
const
VectorPtr
vecs
[],
const
ParameterConfig
&
config
,
size_t
sparseId
)
const
{
// globalGradientClipping(vecs, config, FLAGS_log_clipping);
real
global_thres_
=
optConfig_
.
gradient_clipping_threshold
();
real
local_thres_
=
config
.
gradient_clipping_threshold
();
real
threshold
;
std
::
string
field
;
// Get the minimum of local and global threshold
// as the real threshold for clipping
if
(
global_thres_
>
0.0
f
&&
local_thres_
>
0.0
f
)
{
threshold
=
global_thres_
<
local_thres_
?
global_thres_
:
local_thres_
;
field
=
global_thres_
<
local_thres_
?
"global"
:
"local"
;
...
...
paddle/parameter/ParameterOptimizer.h
浏览文件 @
4d4593b9
...
...
@@ -170,9 +170,6 @@ public:
real
getLearningRate
()
const
{
return
learningRate_
;
}
// real getGradientClippingThreshold() const {return
// gradientClippingThreshold_;}
virtual
void
setNoDecay
()
{
applyDecay_
=
false
;
}
static
ParameterOptimizer
*
create
(
const
OptimizationConfig
&
optConfig
,
...
...
@@ -206,11 +203,6 @@ protected:
*/
real
learningRate_
;
/**
* global threshold for gradient clipping,
* init value is opt_config.gradient_clipping_thresholod
*/
std
::
unique_ptr
<
LearningRateScheduler
>
learningRateScheduler_
;
int64_t
pass_
;
// current training pass (starting from 0)
bool
firstTime_
;
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录