未验证 提交 eaf187ce 编写于 作者: N NLP-LOVE 提交者: GitHub

Finished Attention

上级 a55c670e
## 目录
- [1. 什么是Attention机制](#1-什么是attention机制)
- [2. 计算背景变量](#2-计算背景变量)
- [3. 更新隐藏状态](#3-更新隐藏状态)
- [4. 发展](#4-发展)
- [5. 代码实现](#5-代码实现)
- [6. 参考文献](#6-参考文献)
## 1. 什么是Attention机制
在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量来获取输⼊序列信息。当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册