diff --git a/06.understand_sentiment/README.cn.md b/06.understand_sentiment/README.cn.md index baea9623f523bc6606c6dd9c4ebffeb8a2dc9358..b14c94ab3dc7be4853e83e4c4b5cd6f4c172f90a 100755 --- a/06.understand_sentiment/README.cn.md +++ b/06.understand_sentiment/README.cn.md @@ -67,7 +67,7 @@ 相比于简单的循环神经网络,LSTM增加了记忆单元$c$、输入门$i$、遗忘门$f$及输出门$o$。这些门及记忆单元组合起来大大提升了循环神经网络处理长序列数据的能力。若将基于LSTM的循环神经网络表示的函数记为$F$,则其公式为:

-
+

@@ -87,7 +87,7 @@ $F$由下列公式组合而成\[[7](#参考文献)\]: LSTM通过给简单的循环神经网络增加记忆及控制门的方式,增强了其处理远距离依赖问题的能力。类似原理的改进还有Gated Recurrent Unit (GRU)\[[8](#参考文献)\],其设计更为简洁一些。**这些改进虽然各有不同,但是它们的宏观描述却与简单的循环神经网络一样(如图2所示),即隐状态依据当前输入及前一时刻的隐状态来改变,不断地循环这一过程直至输入处理完毕:**

-
+

其中,$Recrurent$可以表示简单的循环神经网络、GRU或LSTM。