Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
ml-mastery-zh
提交
a1a7c295
M
ml-mastery-zh
项目概览
OpenDocCN
/
ml-mastery-zh
10 个月 前同步成功
通知
2
Star
556
Fork
158
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
M
ml-mastery-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
a1a7c295
编写于
12月 15, 2021
作者:
W
wizardforcel
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
2021-12-15 22:04:57
上级
1adb65e3
变更
16
隐藏空白更改
内联
并排
Showing
16 changed file
with
23 addition
and
23 deletion
+23
-23
docs/dl-nlp/caption-generation-inject-merge-architectures-encoder-decoder-model.md
...ation-inject-merge-architectures-encoder-decoder-model.md
+3
-3
docs/dl-nlp/configure-encoder-decoder-model-neural-machine-translation.md
...igure-encoder-decoder-model-neural-machine-translation.md
+1
-1
docs/dl-nlp/develop-neural-machine-translation-system-keras.md
...dl-nlp/develop-neural-machine-translation-system-keras.md
+1
-1
docs/dl-nlp/encoder-decoder-models-text-summarization-keras.md
...dl-nlp/encoder-decoder-models-text-summarization-keras.md
+2
-2
docs/dl-nlp/encoder-decoder-recurrent-neural-network-models-neural-machine-translation.md
...rrent-neural-network-models-neural-machine-translation.md
+1
-1
docs/dl-nlp/introduction-neural-machine-translation.md
docs/dl-nlp/introduction-neural-machine-translation.md
+1
-1
docs/dl-ts/how-to-get-started-with-deep-learning-for-time-series-forecasting-7-day-mini-course.md
...learning-for-time-series-forecasting-7-day-mini-course.md
+1
-1
docs/dl-ts/how-to-load-and-explore-household-electricity-usage-data.md
...w-to-load-and-explore-household-electricity-usage-data.md
+1
-1
docs/lstm/SUMMARY.md
docs/lstm/SUMMARY.md
+1
-1
docs/lstm/crash-course-recurrent-neural-networks-deep-learning.md
...m/crash-course-recurrent-neural-networks-deep-learning.md
+1
-1
docs/lstm/develop-encoder-decoder-model-sequence-sequence-prediction-keras.md
...coder-decoder-model-sequence-sequence-prediction-keras.md
+1
-1
docs/lstm/encoder-decoder-attention-sequence-to-sequence-prediction-keras.md
...ecoder-attention-sequence-to-sequence-prediction-keras.md
+3
-3
docs/lstm/encoder-decoder-long-short-term-memory-networks.md
docs/lstm/encoder-decoder-long-short-term-memory-networks.md
+1
-1
docs/lstm/global-attention-for-encoder-decoder-recurrent-neural-networks.md
...ttention-for-encoder-decoder-recurrent-neural-networks.md
+1
-1
docs/lstm/implementation-patterns-encoder-decoder-rnn-architecture-attention.md
...on-patterns-encoder-decoder-rnn-architecture-attention.md
+2
-2
docs/lstm/lstm-autoencoders.md
docs/lstm/lstm-autoencoders.md
+2
-2
未找到文件。
docs/dl-nlp/caption-generation-inject-merge-architectures-encoder-decoder-model.md
浏览文件 @
a1a7c295
...
...
@@ -40,9 +40,9 @@
有关编解码器循环神经网络架构的更多信息,请参阅帖子:
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
通常,卷积神经网络用于编码图像,并且循环神经网络(例如长短期
存储器
网络)用于编码到目前为止生成的文本序列,和/或生成序列中的下一个单词。 。
通常,卷积神经网络用于编码图像,并且循环神经网络(例如长短期
记忆
网络)用于编码到目前为止生成的文本序列,和/或生成序列中的下一个单词。 。
对于字幕生成问题,有很多方法可以实现这种架构。
...
...
@@ -134,7 +134,7 @@
如果您希望深入了解,本节将提供有关该主题的更多资源。
*
[
Marc Tanti 的博客
](
https://geekyisawesome.blogspot.com.au/
)
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
将图像放在图像标题生成器
](
https://arxiv.org/abs/1703.09137
)
中的位置,2017。
*
[
循环神经网络(RNN)在图像标题生成器中的作用是什么?
](
https://arxiv.org/abs/1708.02043
)
,2017。
...
...
docs/dl-nlp/configure-encoder-decoder-model-neural-machine-translation.md
浏览文件 @
a1a7c295
...
...
@@ -37,7 +37,7 @@
有关编解码器架构和注意机制的更多背景信息,请参阅帖子:
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
长期短期记忆循环神经网络
](
https://machinelearningmastery.com/attention-long-short-term-memory-recurrent-neural-networks/
)
的注意事项
## 基线模型
...
...
docs/dl-nlp/develop-neural-machine-translation-system-keras.md
浏览文件 @
a1a7c295
...
...
@@ -927,7 +927,7 @@ BLEU-4: 0.076238
*
[
制表符分隔的双语句子对
](
http://www.manythings.org/anki/
)
*
[
德语 - 英语 deu-eng.zip
](
http://www.manythings.org/anki/deu-eng.zip
)
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
## 摘要
...
...
docs/dl-nlp/encoder-decoder-models-text-summarization-keras.md
浏览文件 @
a1a7c295
...
...
@@ -44,7 +44,7 @@
有关编解码器架构的更多信息,请参阅帖子:
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
编码器和解码器子模型都是联合训练的,意思是同时进行。
...
...
@@ -300,7 +300,7 @@ model.compile(loss='categorical_crossentropy', optimizer='adam')
### 有关
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
长期短期记忆循环神经网络
](
https://machinelearningmastery.com/attention-long-short-term-memory-recurrent-neural-networks/
)
的注意事项
## 摘要
...
...
docs/dl-nlp/encoder-decoder-recurrent-neural-network-models-neural-machine-translation.md
浏览文件 @
a1a7c295
...
...
@@ -40,7 +40,7 @@
有关架构的更多信息,请参阅帖子:
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
## Sutskever NMT 模型
...
...
docs/dl-nlp/introduction-neural-machine-translation.md
浏览文件 @
a1a7c295
...
...
@@ -113,7 +113,7 @@
有关编解码器循环神经网络架构的更多信息,请参阅帖子:
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
### 带注意的编码器解码器
...
...
docs/dl-ts/how-to-get-started-with-deep-learning-for-time-series-forecasting-7-day-mini-course.md
浏览文件 @
a1a7c295
...
...
@@ -452,7 +452,7 @@ print(yhat)
### 更多信息
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
多步时间序列预测的 4 种策略
](
https://machinelearningmastery.com/multi-step-time-series-forecasting/
)
*
[
Python 中长期短期记忆网络的多步时间序列预测
](
https://machinelearningmastery.com/multi-step-time-series-forecasting-long-short-term-memory-networks-python/
)
...
...
docs/dl-ts/how-to-load-and-explore-household-electricity-usage-data.md
浏览文件 @
a1a7c295
...
...
@@ -616,7 +616,7 @@ pyplot.show()
通常,神经网络在自回归类型问题上未被证明非常有效。
然而,诸如卷积神经网络的技术能够从原始数据(包括一维信号数据)自动学习复杂特征。并且诸如长短期
存储器
网络之类的循环神经网络能够直接学习输入数据的多个并行序列。
然而,诸如卷积神经网络的技术能够从原始数据(包括一维信号数据)自动学习复杂特征。并且诸如长短期
记忆
网络之类的循环神经网络能够直接学习输入数据的多个并行序列。
此外,这些方法的组合,例如 CNN LSTM 和 ConvLSTM,已经证明在时间序列分类任务上是有效的。
...
...
docs/lstm/SUMMARY.md
浏览文件 @
a1a7c295
...
...
@@ -8,7 +8,7 @@
+
[
如何开发Keras序列到序列预测的编解码器模型
](
develop-encoder-decoder-model-sequence-sequence-prediction-keras.md
)
+
[
如何诊断LSTM模型的过拟合和欠拟合
](
diagnose-overfitting-underfitting-lstm-models.md
)
+
[
如何开发一种编解码器模型,注重Keras中的序列到序列预测
](
encoder-decoder-attention-sequence-to-sequence-prediction-keras.md
)
+
[
编解码器长短期
存储器
网络
](
encoder-decoder-long-short-term-memory-networks.md
)
+
[
编解码器长短期
记忆
网络
](
encoder-decoder-long-short-term-memory-networks.md
)
+
[
神经网络中爆炸梯度的温和介绍
](
exploding-gradients-in-neural-networks.md
)
+
[
对时间反向传播的温和介绍
](
gentle-introduction-backpropagation-time.md
)
+
[
生成长短期记忆网络的温和介绍
](
gentle-introduction-generative-long-short-term-memory-networks.md
)
...
...
docs/lstm/crash-course-recurrent-neural-networks-deep-learning.md
浏览文件 @
a1a7c295
...
...
@@ -77,7 +77,7 @@
通过使用整流器传递函数,这种问题在深层多层感知器网络中得到了缓解,甚至更加奇特但现在不那么流行的使用无监督预层训练的方法。
在循环神经网络架构中,使用称为长短期
存储器
网络的新型架构可以缓解这个问题,该架构允许训练深度复现网络。
在循环神经网络架构中,使用称为长短期
记忆
网络的新型架构可以缓解这个问题,该架构允许训练深度复现网络。
## 长期短期记忆网络
...
...
docs/lstm/develop-encoder-decoder-model-sequence-sequence-prediction-keras.md
浏览文件 @
a1a7c295
# 如何
开发Keras
序列到序列预测的编解码器模型
# 如何
在 Keras 中开发用于
序列到序列预测的编解码器模型
> 原文: [https://machinelearningmastery.com/develop-encoder-decoder-model-sequence-sequence-prediction-keras/](https://machinelearningmastery.com/develop-encoder-decoder-model-sequence-sequence-prediction-keras/)
...
...
docs/lstm/encoder-decoder-attention-sequence-to-sequence-prediction-keras.md
浏览文件 @
a1a7c295
# 如何
开发一种编解码器模型,注重Keras中的序列到序列预测
# 如何
在Keras中开发带有注意力的编解码器模型
> 原文: [https://machinelearningmastery.com/encoder-decoder-attention-sequence-to-sequence-prediction-keras/](https://machinelearningmastery.com/encoder-decoder-attention-sequence-to-sequence-prediction-keras/)
...
...
@@ -258,7 +258,7 @@ n_timesteps_out = 2
有关如何在Keras中定义编解码器架构的更多详细信息,请参阅帖子:
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
我们将使用相同数量的单位配置编码器和解码器,在本例中为150.我们将使用梯度下降的有效Adam实现并优化分类交叉熵损失函数,因为该问题在技术上是一个多类别分类问题。
...
...
@@ -1045,7 +1045,7 @@ Mean Accuracy: 95.70%
*
[
长期短期记忆循环神经网络
](
https://machinelearningmastery.com/attention-long-short-term-memory-recurrent-neural-networks/
)
的注意事项
*
[
编解码器循环神经网络中的注意事项如何工作
](
https://machinelearningmastery.com/how-does-attention-work-in-encoder-decoder-recurrent-neural-networks/
)
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
如何评估深度学习模型的技巧
](
https://machinelearningmastery.com/evaluate-skill-deep-learning-models/
)
*
[
如何在Keras中注意循环神经网络
](
https://medium.com/datalogue/attention-in-keras-1892773a4f22
)
,2017。
*
[
keras-attention GitHub Project
](
https://github.com/datalogue/keras-attention
)
...
...
docs/lstm/encoder-decoder-long-short-term-memory-networks.md
浏览文件 @
a1a7c295
# 编解码器长短期
存储器
网络
# 编解码器长短期
记忆
网络
> 原文: [https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/](https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/)
...
...
docs/lstm/global-attention-for-encoder-decoder-recurrent-neural-networks.md
浏览文件 @
a1a7c295
...
...
@@ -158,7 +158,7 @@
*
[
用神经网络进行序列学习的序列
](
https://arxiv.org/abs/1409.3215
)
,2014。
*
[
使用RNN编解码器进行统计机器翻译的学习短语表示
](
https://arxiv.org/abs/1406.1078
)
,2014。
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
### 注意
...
...
docs/lstm/implementation-patterns-encoder-decoder-rnn-architecture-attention.md
浏览文件 @
a1a7c295
...
...
@@ -36,7 +36,7 @@
有关编解码器架构的更多信息,请参阅帖子:
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
## 直接编解码器实现
...
...
@@ -175,7 +175,7 @@ Below is a depiction of this implementation.
### 帖子
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
长期短期记忆循环神经网络
](
https://machinelearningmastery.com/attention-long-short-term-memory-recurrent-neural-networks/
)
的注意事项
*
[
编解码器循环神经网络中的注意事项如何工作
](
https://machinelearningmastery.com/how-does-attention-work-in-encoder-decoder-recurrent-neural-networks/
)
...
...
docs/lstm/lstm-autoencoders.md
浏览文件 @
a1a7c295
...
...
@@ -80,7 +80,7 @@ LSTM网络可以组织成称为编解码器LSTM的架构,该架构允许该模
您可以在此处了解有关编解码器架构的更多信息
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
## 什么是LSTM自动编码器?
...
...
@@ -508,7 +508,7 @@ print(yhat)
如果您希望深入了解,本节将提供有关该主题的更多资源。
*
[
用序列做出预测
](
https://machinelearningmastery.com/sequence-prediction/
)
*
[
编解码器长短期
存储器
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
编解码器长短期
记忆
网络
](
https://machinelearningmastery.com/encoder-decoder-long-short-term-memory-networks/
)
*
[
自动编码器,维基百科
](
https://en.wikipedia.org/wiki/Autoencoder
)
*
[
使用LSTM进行视频表示的无监督学习
](
https://arxiv.org/abs/1502.04681
)
,ArXiv 2015。
*
[
使用LSTM进行视频表示的无监督学习
](
http://proceedings.mlr.press/v37/srivastava15.pdf
)
,PMLR,PDF,2015。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录