Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
DeepSpeech
提交
30a63046
D
DeepSpeech
项目概览
PaddlePaddle
/
DeepSpeech
大约 1 年 前同步成功
通知
206
Star
8425
Fork
1598
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
245
列表
看板
标记
里程碑
合并请求
3
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
DeepSpeech
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
245
Issue
245
列表
看板
标记
里程碑
合并请求
3
合并请求
3
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
You need to sign in or sign up before continuing.
未验证
提交
30a63046
编写于
5月 05, 2022
作者:
H
Hui Zhang
提交者:
GitHub
5月 05, 2022
浏览文件
操作
浏览文件
下载
差异文件
Merge pull request #1844 from zh794390558/doc
[asr] add asr1 config comment
上级
d99e99ce
624ab2c5
变更
3
隐藏空白更改
内联
并排
Showing
3 changed file
with
6 addition
and
6 deletion
+6
-6
examples/aishell/asr1/conf/chunk_conformer.yaml
examples/aishell/asr1/conf/chunk_conformer.yaml
+3
-3
examples/aishell/asr1/conf/conformer.yaml
examples/aishell/asr1/conf/conformer.yaml
+1
-1
examples/aishell/asr1/conf/transformer.yaml
examples/aishell/asr1/conf/transformer.yaml
+2
-2
未找到文件。
examples/aishell/asr1/conf/chunk_conformer.yaml
浏览文件 @
30a63046
...
@@ -10,7 +10,7 @@ encoder_conf:
...
@@ -10,7 +10,7 @@ encoder_conf:
attention_heads
:
4
attention_heads
:
4
linear_units
:
2048
# the number of units of position-wise feed forward
linear_units
:
2048
# the number of units of position-wise feed forward
num_blocks
:
12
# the number of encoder blocks
num_blocks
:
12
# the number of encoder blocks
dropout_rate
:
0.1
dropout_rate
:
0.1
# sublayer output dropout
positional_dropout_rate
:
0.1
positional_dropout_rate
:
0.1
attention_dropout_rate
:
0.0
attention_dropout_rate
:
0.0
input_layer
:
conv2d
# encoder input type, you can chose conv2d, conv2d6 and conv2d8
input_layer
:
conv2d
# encoder input type, you can chose conv2d, conv2d6 and conv2d8
...
@@ -30,7 +30,7 @@ decoder_conf:
...
@@ -30,7 +30,7 @@ decoder_conf:
attention_heads
:
4
attention_heads
:
4
linear_units
:
2048
linear_units
:
2048
num_blocks
:
6
num_blocks
:
6
dropout_rate
:
0.1
dropout_rate
:
0.1
# sublayer output dropout
positional_dropout_rate
:
0.1
positional_dropout_rate
:
0.1
self_attention_dropout_rate
:
0.0
self_attention_dropout_rate
:
0.0
src_attention_dropout_rate
:
0.0
src_attention_dropout_rate
:
0.0
...
@@ -39,7 +39,7 @@ model_conf:
...
@@ -39,7 +39,7 @@ model_conf:
ctc_weight
:
0.3
ctc_weight
:
0.3
lsm_weight
:
0.1
# label smoothing option
lsm_weight
:
0.1
# label smoothing option
length_normalized_loss
:
false
length_normalized_loss
:
false
init_type
:
'
kaiming_uniform'
init_type
:
'
kaiming_uniform'
# !Warning: need to convergence
###########################################
###########################################
# Data #
# Data #
...
...
examples/aishell/asr1/conf/conformer.yaml
浏览文件 @
30a63046
...
@@ -37,7 +37,7 @@ model_conf:
...
@@ -37,7 +37,7 @@ model_conf:
ctc_weight
:
0.3
ctc_weight
:
0.3
lsm_weight
:
0.1
# label smoothing option
lsm_weight
:
0.1
# label smoothing option
length_normalized_loss
:
false
length_normalized_loss
:
false
init_type
:
'
kaiming_uniform'
init_type
:
'
kaiming_uniform'
# !Warning: need to convergence
###########################################
###########################################
# Data #
# Data #
...
...
examples/aishell/asr1/conf/transformer.yaml
浏览文件 @
30a63046
...
@@ -10,7 +10,7 @@ encoder_conf:
...
@@ -10,7 +10,7 @@ encoder_conf:
attention_heads
:
4
attention_heads
:
4
linear_units
:
2048
# the number of units of position-wise feed forward
linear_units
:
2048
# the number of units of position-wise feed forward
num_blocks
:
12
# the number of encoder blocks
num_blocks
:
12
# the number of encoder blocks
dropout_rate
:
0.1
dropout_rate
:
0.1
# sublayer output dropout
positional_dropout_rate
:
0.1
positional_dropout_rate
:
0.1
attention_dropout_rate
:
0.0
attention_dropout_rate
:
0.0
input_layer
:
conv2d
# encoder input type, you can chose conv2d, conv2d6 and conv2d8
input_layer
:
conv2d
# encoder input type, you can chose conv2d, conv2d6 and conv2d8
...
@@ -21,7 +21,7 @@ decoder_conf:
...
@@ -21,7 +21,7 @@ decoder_conf:
attention_heads
:
4
attention_heads
:
4
linear_units
:
2048
linear_units
:
2048
num_blocks
:
6
num_blocks
:
6
dropout_rate
:
0.1
dropout_rate
:
0.1
# sublayer output dropout
positional_dropout_rate
:
0.1
positional_dropout_rate
:
0.1
self_attention_dropout_rate
:
0.0
self_attention_dropout_rate
:
0.0
src_attention_dropout_rate
:
0.0
src_attention_dropout_rate
:
0.0
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录