Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
DeepSpeech
提交
e76123d4
D
DeepSpeech
项目概览
PaddlePaddle
/
DeepSpeech
大约 1 年 前同步成功
通知
206
Star
8425
Fork
1598
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
245
列表
看板
标记
里程碑
合并请求
3
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
DeepSpeech
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
245
Issue
245
列表
看板
标记
里程碑
合并请求
3
合并请求
3
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
e76123d4
编写于
8月 05, 2021
作者:
H
Hui Zhang
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
rm useless
上级
820b4db2
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
0 addition
and
32 deletion
+0
-32
deepspeech/exps/u2/model.py
deepspeech/exps/u2/model.py
+0
-32
未找到文件。
deepspeech/exps/u2/model.py
浏览文件 @
e76123d4
...
...
@@ -41,8 +41,6 @@ from deepspeech.utils import mp_tools
from
deepspeech.utils
import
text_grid
from
deepspeech.utils
import
utility
from
deepspeech.utils.log
import
Log
# from deepspeech.training.gradclip import ClipGradByGlobalNormWithLog
# from deepspeech.training.scheduler import WarmupLR
logger
=
Log
(
__name__
).
getlog
()
...
...
@@ -324,25 +322,6 @@ class U2Trainer(Trainer):
lr_scheduler
=
LRSchedulerFactory
.
from_args
(
scheduler_type
,
scheduler_args
)
# if scheduler_type == 'expdecaylr':
# lr_scheduler = paddle.optimizer.lr.ExponentialDecay(
# learning_rate=optim_conf.lr,
# gamma=scheduler_conf.lr_decay,
# verbose=False)
# elif scheduler_type == 'warmuplr':
# lr_scheduler = WarmupLR(
# learning_rate=optim_conf.lr,
# warmup_steps=scheduler_conf.warmup_steps,
# verbose=False)
# elif scheduler_type == 'noam':
# lr_scheduler = paddle.optimizer.lr.NoamDecay(
# learning_rate=optim_conf.lr,
# d_model=model_conf.encoder_conf.output_size,
# warmup_steps=scheduler_conf.warmup_steps,
# verbose=False)
# else:
# raise ValueError(f"Not support scheduler: {scheduler_type}")
def
optimizer_args
(
config
,
parameters
,
...
...
@@ -366,17 +345,6 @@ class U2Trainer(Trainer):
optimzer_args
=
optimizer_args
(
config
,
model
.
parameters
(),
lr_scheduler
)
optimizer
=
OptimizerFactory
.
from_args
(
optim_type
,
optimzer_args
)
# grad_clip = ClipGradByGlobalNormWithLog(train_config.global_grad_clip)
# weight_decay = paddle.regularizer.L2Decay(optim_conf.weight_decay)
# if optim_type == 'adam':
# optimizer = paddle.optimizer.Adam(
# learning_rate=lr_scheduler,
# parameters=model.parameters(),
# weight_decay=weight_decay,
# grad_clip=grad_clip)
# else:
# raise ValueError(f"Not support optim: {optim_type}")
self
.
model
=
model
self
.
optimizer
=
optimizer
self
.
lr_scheduler
=
lr_scheduler
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录