diff --git a/paddle2.0_docs/hello_paddle/hello_paddle.ipynb b/paddle2.0_docs/hello_paddle/hello_paddle.ipynb index f589825876701d69780deaf4c2b3aef65855dfc7..e947d5c235dd6706d92dd1e59609970e06cea6e8 100644 --- a/paddle2.0_docs/hello_paddle/hello_paddle.ipynb +++ b/paddle2.0_docs/hello_paddle/hello_paddle.ipynb @@ -163,7 +163,7 @@ "source": [ "# 准备好运行飞桨\n", "\n", - "前面我们提到过,机器(计算机)在一开始的时候是随便猜`w`和`b`的,我们先看看机器猜的怎么样。你应该可以看到,这时候的`w`是一个随机值,`b`是0.0,这是飞桨的初始化策略,也是这个领域常用的初始化策略。(如果你愿意,也可以采用其他的初始化的方式,今后你也会看到,选择不同的初始化策略也是对于做好深度学习任务来说很重要的一点)。" + "机器(计算机)在一开始的时候会随便猜`w`和`b`,我们先看看机器猜的怎么样。你应该可以看到,这时候的`w`是一个随机值,`b`是0.0,这是飞桨的初始化策略,也是这个领域常用的初始化策略。(如果你愿意,也可以采用其他的初始化的方式,今后你也会看到,选择不同的初始化策略也是对于做好深度学习任务来说很重要的一点)。" ] }, { @@ -219,7 +219,7 @@ "source": [ "# 运行优化算法\n", "\n", - "接下来,我们让飞桨运行一下这个优化算法,这会是一个前面介绍过的逐步调整参数的过程,你应该可以看到loss值(衡量`y`和`y_predict`的`loss`)在不断的降低。" + "接下来,我们让飞桨运行一下这个优化算法,这会是一个前面介绍过的逐步调整参数的过程,你应该可以看到loss值(衡量`y`和`y_predict`的差距的`loss`)在不断的降低。" ] }, { diff --git a/paddle2.0_docs/seq2seq_with_attention/seq2seq_with_attention.ipynb b/paddle2.0_docs/seq2seq_with_attention/seq2seq_with_attention.ipynb index ba818cdc1a55dbaead4d3998fc23ac815dcfeb20..1f07d16d9d434a9690e17b07171127fd0d2992ac 100644 --- a/paddle2.0_docs/seq2seq_with_attention/seq2seq_with_attention.ipynb +++ b/paddle2.0_docs/seq2seq_with_attention/seq2seq_with_attention.ipynb @@ -15,7 +15,7 @@ "source": [ "# 环境设置\n", "\n", - "本示例教程基于飞桨2.0版本。" + "本示例教程基于飞桨2.0-beta版本。" ] }, { @@ -107,7 +107,7 @@ "\n", "接下来我们通过处理下载下来的双语句对的文本文件,将双语句对读入到python的数据结构中。这里做了如下的处理。\n", "\n", - "- 对于英文,首先会把全部英文都变成小写,并只保留英文的单词。\n", + "- 对于英文,会把全部英文都变成小写,并只保留英文的单词。\n", "- 对于中文,为了简便起见,未做分词,按照字做了切分。\n", "- 为了后续的程序运行的更快,我们通过限制句子长度,和只保留部分英文单词开头的句子的方式,得到了一个较小的数据集。这样得到了一个有5508个句对的数据集。" ] @@ -171,7 +171,7 @@ "source": [ "# 创建词表\n", "\n", - "接下来我们分别创建中英文的词表,这两份词表会用来将中文的句子转换为词的ID构成的序列。词表中还加入了如下三个特殊的词:\n", + "接下来我们分别创建中英文的词表,这两份词表会用来将英文和中文的句子转换为词的ID构成的序列。词表中还加入了如下三个特殊的词:\n", "- ``: 用来对较短的句子进行填充。\n", "- ``: \"begin of sentence\", 表示句子的开始的特殊词。\n", "- ``: \"end of sentence\", 表示句子的结束的特殊词。\n",