Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
models
提交
1bd396ee
M
models
项目概览
PaddlePaddle
/
models
大约 1 年 前同步成功
通知
222
Star
6828
Fork
2962
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
602
列表
看板
标记
里程碑
合并请求
255
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
M
models
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
602
Issue
602
列表
看板
标记
里程碑
合并请求
255
合并请求
255
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
1bd396ee
编写于
7月 01, 2018
作者:
Y
Yibing Liu
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Revise the fluid models' guide
上级
e01d3c62
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
6 addition
and
6 deletion
+6
-6
fluid/README.cn.md
fluid/README.cn.md
+6
-6
未找到文件。
fluid/README.cn.md
浏览文件 @
1bd396ee
...
...
@@ -49,25 +49,25 @@
## 语音识别
语音识别(speech recognition)是将人类声音中的词汇内容转录成计算机可输入的文字的技术。语音识别的相关研究经历了漫长的探索过程,在HMM/GMM模型之后其发展一直较为缓慢,由于深度学习的兴起,语音识别迎来了春天,成为深度学习应用最为成功的领域之一。随着
识别准确率的不断提高,有越来越多的语言技术产品得以落地,例如语言输入法、以智能音箱为代表的智能家居设备等 —— 基于语言的交互方式正在深刻的改变人类的生活。
自动语音识别(Automatic Speech Recognition, ASR)是将人类声音中的词汇内容转录成计算机可输入的文字的技术。语音识别的相关研究经历了漫长的探索过程,在HMM/GMM模型之后其发展一直较为缓慢,随着深度学习的兴起,其迎来了春天。在多种语言识别任务中,将深度神经网络(DNN)作为声学模型,取得了比GMM更好的性能,使得 ASR 成为深度学习应用最为成功的领域之一。而由于
识别准确率的不断提高,有越来越多的语言技术产品得以落地,例如语言输入法、以智能音箱为代表的智能家居设备等 —— 基于语言的交互方式正在深刻的改变人类的生活。
与
[
DeepSpeech
](
https://github.com/PaddlePaddle/DeepSpeech
)
中深度学习模型端到端直接预测字词的分布不同,本实例
关注语言识别中声学模型的训练,以音素为建模单元,利用kaldi进行音频数据的特征提取
,并集成kaldi的解码器完成解码。
与
[
DeepSpeech
](
https://github.com/PaddlePaddle/DeepSpeech
)
中深度学习模型端到端直接预测字词的分布不同,本实例
更接近传统的语言识别流程,以音素为建模单元,关注语言识别中声学模型的训练,利用kaldi进行音频数据的特征提取和标签对齐
,并集成kaldi的解码器完成解码。
-
[
DeepASR
](
https://github.com/PaddlePaddle/models/tree/develop/fluid/DeepASR
)
## 机器翻译
机器翻译(machine translation)将一种自然语言(源语言)转换成一种自然语言(目标语音),是自然语言处理中非常基础和重要的研究方向。在全球化的浪潮中,机器翻译在促进跨语言文明的交流中所起的重要作用是不言而喻的。其发展经历了统计机器翻译,和基于神经网络的神经机器翻译(Nueural Machine Translation, NMT)等阶段。在 NMT 成熟后,机器翻译才真正得以大规模应用。而早阶段的 NMT 主要是基于循环神经网络 RNN 的,其训练过程
后时间步依赖于前时间步的计算,时间步之间难以并行化以提高训练速度。因此,非 RNN 结构的 NMT 得以应运而生,例如基于卷积神经网络 CNN 的结构和基于注意力机制(
Attention)的结构。
机器翻译(machine translation)将一种自然语言(源语言)转换成一种自然语言(目标语音),是自然语言处理中非常基础和重要的研究方向。在全球化的浪潮中,机器翻译在促进跨语言文明的交流中所起的重要作用是不言而喻的。其发展经历了统计机器翻译,和基于神经网络的神经机器翻译(Nueural Machine Translation, NMT)等阶段。在 NMT 成熟后,机器翻译才真正得以大规模应用。而早阶段的 NMT 主要是基于循环神经网络 RNN 的,其训练过程
中当前时间步依赖于前一个时间步的计算,时间步之间难以并行化以提高训练速度。因此,非 RNN 结构的 NMT 得以应运而生,例如基于卷积神经网络 CNN 的结构和基于自注意力机制(Self-
Attention)的结构。
本实例所实现的
Transformer就是一个基于全注意力机制的机器翻译模型,其中不再有RNN或者CNN等模型结构,而是利用 Attention 学习源语言中的上下文依赖,最终在多个数据集上
取得了最好的翻译效果。
本实例所实现的
Transformer 就是一个基于自注意力机制的机器翻译模型,其中不再有RNN或CNN结构,而是完全利用 Attention 学习语言中的上下文依赖。相较于RNN/CNN, 这种结构在单层内计算复杂度更低、易于并行化、对长程依赖更易建模,最终在多种语言之间
取得了最好的翻译效果。
-
[
Transformer
](
https://github.com/PaddlePaddle/models/tree/develop/fluid/neural_machine_translation/transformer
)
## 强化学习
强化学习是近年来一个愈发重要的机器学习方向,特别是与深度学习相结合而形成的深度强化学习
,取得了很多令人惊异的成就,人们所熟知的战胜顶级围棋职业选手的 AlphaGo 就是一个典型的例子
。
强化学习是近年来一个愈发重要的机器学习方向,特别是与深度学习相结合而形成的深度强化学习
(Deep Reinforcement Learning, DRL),取得了很多令人惊异的成就。人们所熟知的战胜人类顶级围棋职业选手的 AlphaGo 就是 DRL 应用的一个典型例子,除游戏领域外,其它的应用还包括机器人、自然语言处理等
。
当前深度强化学习最成功的应用是游戏领域,本实例利用Fluid这个灵活的框架,实现了在Atari游戏中表现优异的几个重要工作
。
深度强化学习的开山之作是在Atari视频游戏中的成功应用, 其可直接接受视频帧这种高维输入并根据图像内容端到端地预测下一步的动作,所用到的模型被称为深度Q网络(Deep Q-Network, DQN)。本实例就是利用PaddlePaddle Fluid这个灵活的框架,实现了 DQN 及其变体,并测试了它们在 Atari 游戏中的表现
。
-
[
DeepQNetwork
](
https://github.com/PaddlePaddle/models/tree/develop/fluid/DeepQNetwork
)
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录