未验证 提交 07321194 编写于 作者: J JesseyXujin 提交者: GitHub

Update README.cn.md

上级 e45a15a0
......@@ -67,7 +67,7 @@
相比于简单的循环神经网络,LSTM增加了记忆单元$c$、输入门$i$、遗忘门$f$及输出门$o$。这些门及记忆单元组合起来大大提升了循环神经网络处理长序列数据的能力。若将基于LSTM的循环神经网络表示的函数记为$F$,则其公式为:
<p align="center">
<img src="https://github.com/JesseyXujin/book/blob/doc_1/06.understand_sentiment/image/formula_lstm_1.png?raw=true" width = "65%" align="center"/><br/>
<img src="https://github.com/JesseyXujin/book/blob/doc_1/06.understand_sentiment/image/formula_lstm_1.png?raw=true" width = "20%" align="center"/><br/>
</p>
......@@ -87,7 +87,7 @@ $F$由下列公式组合而成\[[7](#参考文献)\]:
LSTM通过给简单的循环神经网络增加记忆及控制门的方式,增强了其处理远距离依赖问题的能力。类似原理的改进还有Gated Recurrent Unit (GRU)\[[8](#参考文献)\],其设计更为简洁一些。**这些改进虽然各有不同,但是它们的宏观描述却与简单的循环神经网络一样(如图2所示),即隐状态依据当前输入及前一时刻的隐状态来改变,不断地循环这一过程直至输入处理完毕:**
<p align="center">
<img src="https://github.com/JesseyXujin/book/blob/doc_1/06.understand_sentiment/image/formula_rnn_2.png?raw=true" width = "65%" align="center"/><br/>
<img src="https://github.com/JesseyXujin/book/blob/doc_1/06.understand_sentiment/image/formula_rnn_2.png?raw=true" width = "30%" align="center"/><br/>
</p>
其中,$Recrurent$可以表示简单的循环神经网络、GRU或LSTM。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册