From bccc83f2761e4902d78e1f452b64bd6a3f288826 Mon Sep 17 00:00:00 2001 From: wizardforcel <562826179@qq.com> Date: Fri, 7 Aug 2020 11:21:47 +0800 Subject: [PATCH] 2020-08-07 11:21:47 --- docs/mastering-tf-1x-zh/ch03.md | 2 +- docs/mastering-tf-1x-zh/ch04.md | 2 +- docs/mastering-tf-1x-zh/ch08.md | 8 ++++---- 3 files changed, 6 insertions(+), 6 deletions(-) diff --git a/docs/mastering-tf-1x-zh/ch03.md b/docs/mastering-tf-1x-zh/ch03.md index d4a53df7..d99d5314 100644 --- a/docs/mastering-tf-1x-zh/ch03.md +++ b/docs/mastering-tf-1x-zh/ch03.md @@ -360,7 +360,7 @@ Keras 提供了几个补充基本工作流程的附加模块(附加函数在 这就结束了我们对 Keras 的简要介绍,这是 TensorFlow 的高级框架。我们将在本书中提供使用 Keras 构建模型的示例。 -# MNIST 数据集的 Keras 序列模型示例 +# 用于 MNIST 数据集的 Keras 序列模型示例 以下是构建简单多层感知机(在第 5 章中详细介绍)的一个小例子,用于对 MNIST 集中的手写数字进行分类: diff --git a/docs/mastering-tf-1x-zh/ch04.md b/docs/mastering-tf-1x-zh/ch04.md index ac3e84fc..b5a848d7 100644 --- a/docs/mastering-tf-1x-zh/ch04.md +++ b/docs/mastering-tf-1x-zh/ch04.md @@ -665,7 +665,7 @@ For test data : MSE = 30.64861488, R2 = 0.63979971 ![](img/c8314797-8170-4325-b9ac-d563348c0609.png) -# 使用逻辑回归的分类 +# 逻辑回归和分类 最常用的分类方法是使用逻辑回归。逻辑回归是概率和线性分类器。输入是特征向量,特定类的成员的概率可以正式写成如下等式: diff --git a/docs/mastering-tf-1x-zh/ch08.md b/docs/mastering-tf-1x-zh/ch08.md index a1a0a191..8d448f67 100644 --- a/docs/mastering-tf-1x-zh/ch08.md +++ b/docs/mastering-tf-1x-zh/ch08.md @@ -542,7 +542,7 @@ Similar to is: was, are, has, being, busan, Similar to no: any, only, the, another, trinomial, ``` -# t-SNE 的单词嵌入可视化 +# t-SNE 和单词嵌入可视化 让我们可视化我们在上一节中生成的单词嵌入。 t-SNE 是在二维空间中显示高维数据的最流行的方法。我们将使用 scikit-learn 库中的方法,并重用 TensorFlow 文档中给出的代码,来绘制我们刚学过的词嵌入的图形。 @@ -804,7 +804,7 @@ Similar to trading: rake, rubens, swapo, mlx, nahb, 到目前为止,我们已经看到了如何使用 TensorFlow 及其高级库 Keras 创建单词向量或嵌入。现在让我们看看如何使用 TensorFlow 和 Keras 来学习模型并将模型应用于一些与 NLP 相关的任务的预测。 -# TensorFlow 和 Keras 中的 RNN 模型的文本生成 +# TensorFlow 和 Keras 中的 RNN 模型和文本生成 文本生成是 NLP 中 RNN 模型的主要应用之一。针对文本序列训练 RNN 模型,然后通过提供种子文本作为输入来生成文本序列。让我们试试 text8 数据集。 @@ -866,7 +866,7 @@ First 5 words: anarchism originated as a term 现在让我们首先在 TensorFlow 中创建 LSTM 模型。 -# TensorFlow 中的 LSTM 文本生成 +# TensorFlow 中的 LSTM 和文本生成 您可以在 Jupyter 笔记本`ch-08b_RNN_Text_TensorFlow`中按照本节的代码进行操作。 @@ -1033,7 +1033,7 @@ Epoch 999, Average loss:0.23202441136042276, Average accuracy:0.9602864583333334 现在让我们在 Keras 建立相同的模型: -# Keras 中的 LSTM 文本生成 +# Keras 中的 LSTM 和文本生成 您可以在 Jupyter 笔记本`ch-08b_RNN_Text_Keras`中按照本节的代码进行操作。 -- GitLab