Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
DeepSpeech
提交
0a5f1237
D
DeepSpeech
项目概览
PaddlePaddle
/
DeepSpeech
大约 1 年 前同步成功
通知
206
Star
8425
Fork
1598
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
245
列表
看板
标记
里程碑
合并请求
3
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
DeepSpeech
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
245
Issue
245
列表
看板
标记
里程碑
合并请求
3
合并请求
3
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
0a5f1237
编写于
9月 19, 2017
作者:
Y
yangyaming
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Add inference scripts.
上级
a235b353
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
101 addition
and
0 deletion
+101
-0
examples/aishell/run_infer.sh
examples/aishell/run_infer.sh
+46
-0
examples/aishell/run_infer_golden.sh
examples/aishell/run_infer_golden.sh
+55
-0
未找到文件。
examples/aishell/run_infer.sh
0 → 100644
浏览文件 @
0a5f1237
#! /usr/bin/env bash
pushd
../..
>
/dev/null
# download language model
pushd
models/lm
>
/dev/null
sh download_lm_ch.sh
if
[
$?
-ne
0
]
;
then
exit
1
fi
popd
>
/dev/null
# infer
CUDA_VISIBLE_DEVICES
=
0
\
python
-u
infer.py
\
--num_samples
=
10
\
--trainer_count
=
1
\
--beam_size
=
300
\
--num_proc_bsearch
=
8
\
--num_conv_layers
=
2
\
--num_rnn_layers
=
3
\
--rnn_layer_size
=
1024
\
--alpha
=
1.4
\
--beta
=
2.4
\
--cutoff_prob
=
0.99
\
--cutoff_top_n
=
40
\
--use_gru
=
False
\
--use_gpu
=
True
\
--share_rnn_weights
=
False
\
--infer_manifest
=
'data/aishell/manifest.test'
\
--mean_std_path
=
'data/aishell/mean_std.npz'
\
--vocab_path
=
'data/aishell/vocab.txt'
\
--model_path
=
'checkpoints/aishell/params.latest.tar.gz'
\
--lang_model_path
=
'models/lm/zh_giga.no_cna_cmn.prune01244.klm'
\
--decoding_method
=
'ctc_beam_search'
\
--error_rate_type
=
'cer'
\
--specgram_type
=
'linear'
if
[
$?
-ne
0
]
;
then
echo
"Failed in inference!"
exit
1
fi
exit
0
examples/aishell/run_infer_golden.sh
0 → 100644
浏览文件 @
0a5f1237
#! /usr/bin/env bash
pushd
../..
>
/dev/null
# download language model
pushd
models/lm
>
/dev/null
sh download_lm_ch.sh
if
[
$?
-ne
0
]
;
then
exit
1
fi
popd
>
/dev/null
# download well-trained model
pushd
models/aishell
>
/dev/null
sh download_model.sh
if
[
$?
-ne
0
]
;
then
exit
1
fi
popd
>
/dev/null
# infer
CUDA_VISIBLE_DEVICES
=
0
\
python
-u
infer.py
\
--num_samples
=
10
\
--trainer_count
=
1
\
--beam_size
=
300
\
--num_proc_bsearch
=
8
\
--num_conv_layers
=
2
\
--num_rnn_layers
=
3
\
--rnn_layer_size
=
1024
\
--alpha
=
1.4
\
--beta
=
2.4
\
--cutoff_prob
=
0.99
\
--cutoff_top_n
=
40
\
--use_gru
=
False
\
--use_gpu
=
True
\
--share_rnn_weights
=
False
\
--infer_manifest
=
'data/aishell/manifest.test'
\
--mean_std_path
=
'models/aishell/mean_std.npz'
\
--vocab_path
=
'models/aishell/vocab.txt'
\
--model_path
=
'models/aishell/params.tar.gz'
\
--lang_model_path
=
'models/lm/zh_giga.no_cna_cmn.prune01244.klm'
\
--decoding_method
=
'ctc_beam_search'
\
--error_rate_type
=
'cer'
\
--specgram_type
=
'linear'
if
[
$?
-ne
0
]
;
then
echo
"Failed in inference!"
exit
1
fi
exit
0
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录