Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
DeepSpeech
提交
84f77ecd
D
DeepSpeech
项目概览
PaddlePaddle
/
DeepSpeech
大约 1 年 前同步成功
通知
207
Star
8425
Fork
1598
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
245
列表
看板
标记
里程碑
合并请求
3
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
DeepSpeech
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
245
Issue
245
列表
看板
标记
里程碑
合并请求
3
合并请求
3
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
未验证
提交
84f77ecd
编写于
9月 28, 2021
作者:
H
Hui Zhang
提交者:
GitHub
9月 28, 2021
浏览文件
操作
浏览文件
下载
差异文件
Merge pull request #867 from LittleChenCc/develop
update the results of TIMIT and Ted-ST
上级
74e99c15
46df0115
变更
4
隐藏空白更改
内联
并排
Showing
4 changed file
with
33 addition
and
19 deletion
+33
-19
deepspeech/models/u2_st.py
deepspeech/models/u2_st.py
+3
-2
examples/ted_en_zh/t0/README.md
examples/ted_en_zh/t0/README.md
+6
-1
examples/timit/s1/README.md
examples/timit/s1/README.md
+9
-1
examples/timit/s1/conf/transformer.yaml
examples/timit/s1/conf/transformer.yaml
+15
-15
未找到文件。
deepspeech/models/u2_st.py
浏览文件 @
84f77ecd
...
...
@@ -113,7 +113,8 @@ class U2STBaseModel(nn.Layer):
asr_weight
:
float
=
0.0
,
ignore_id
:
int
=
IGNORE_ID
,
lsm_weight
:
float
=
0.0
,
length_normalized_loss
:
bool
=
False
):
length_normalized_loss
:
bool
=
False
,
**
kwargs
):
assert
0.0
<=
ctc_weight
<=
1.0
,
ctc_weight
super
().
__init__
()
...
...
@@ -650,7 +651,7 @@ class U2STModel(U2STBaseModel):
odim
=
vocab_size
,
enc_n_units
=
encoder
.
output_size
(),
blank_id
=
0
,
dropout_rate
=
model_conf
[
'ctc_dropout
_
rate'
],
dropout_rate
=
model_conf
[
'ctc_dropoutrate'
],
reduction
=
True
,
# sum
batch_average
=
True
,
# sum / batch_size
grad_norm_type
=
model_conf
[
'ctc_grad_norm_type'
])
...
...
examples/ted_en_zh/t0/README.md
浏览文件 @
84f77ecd
...
...
@@ -6,5 +6,10 @@
| Data Subset | Duration in Seconds |
| --- | --- |
| data/manifest.train | 0.942 ~ 60 |
| data/manifest.dev | 1.151 ~ 39 |
| data/manifest.dev | 1.151 ~ 39 |
| data/manifest.test | 1.1 ~ 42.746 |
## Transformer
| Model | Params | Config | Char-BLEU |
| --- | --- | --- | --- |
| Transformer+ASR MTL | 50.26M | conf/transformer_joint_noam.yaml | 17.38 |
\ No newline at end of file
examples/timit/s1/README.md
浏览文件 @
84f77ecd
# TIMIT
Results will be organized and updated soon.
### Transformer
| Model | Params | Config | Decode method | PER |
| --- | --- | --- | --- | --- |
| transformer | 5.17M | conf/transformer.yaml | attention | 0.5531 |
| transformer | 5.17M | conf/transformer.yaml | ctc_greedy_search | 0.3922 |
| transformer | 5.17M | conf/transformer.yaml | ctc_prefix_beam_search | 0.3768 |
\ No newline at end of file
examples/timit/s1/conf/transformer.yaml
浏览文件 @
84f77ecd
...
...
@@ -3,12 +3,12 @@ data:
train_manifest
:
data/manifest.train
dev_manifest
:
data/manifest.dev
test_manifest
:
data/manifest.test
min_input_len
:
0.
5
# second
max_input_len
:
3
0.0
# second
min_input_len
:
0.
0
# second
max_input_len
:
1
0.0
# second
min_output_len
:
0.0
# tokens
max_output_len
:
40
0.0
# tokens
min_output_input_ratio
:
0.05
max_output_input_ratio
:
100.0
max_output_len
:
15
0.0
# tokens
min_output_input_ratio
:
0.0
0
5
max_output_input_ratio
:
100
0
.0
collator
:
vocab_filepath
:
data/vocab.txt
...
...
@@ -42,10 +42,10 @@ model:
# encoder related
encoder
:
transformer
encoder_conf
:
output_size
:
256
# dimension of attention
output_size
:
128
# dimension of attention
attention_heads
:
4
linear_units
:
2048
# the number of units of position-wise feed forward
num_blocks
:
12
# the number of encoder blocks
linear_units
:
1024
# the number of units of position-wise feed forward
num_blocks
:
6
# the number of encoder blocks
dropout_rate
:
0.1
positional_dropout_rate
:
0.1
attention_dropout_rate
:
0.0
...
...
@@ -56,7 +56,7 @@ model:
decoder
:
transformer
decoder_conf
:
attention_heads
:
4
linear_units
:
2048
linear_units
:
1024
num_blocks
:
6
dropout_rate
:
0.1
positional_dropout_rate
:
0.1
...
...
@@ -65,26 +65,26 @@ model:
# hybrid CTC/attention
model_conf
:
ctc_weight
:
0.
3
ctc_weight
:
0.
5
ctc_dropoutrate
:
0.0
ctc_grad_norm_type
:
instance
ctc_grad_norm_type
:
batch
lsm_weight
:
0.1
# label smoothing option
length_normalized_loss
:
false
training
:
n_epoch
:
12
0
n_epoch
:
20
0
accum_grad
:
2
global_grad_clip
:
5.0
optim
:
adam
optim_conf
:
lr
:
0.00
2
lr
:
0.00
4
weight_decay
:
1e-06
scheduler
:
warmuplr
# pytorch v1.1.0+ required
scheduler_conf
:
warmup_steps
:
4
00
warmup_steps
:
20
00
lr_decay
:
1.0
log_interval
:
10
0
log_interval
:
10
checkpoint
:
kbest_n
:
50
latest_n
:
5
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录