Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
coolalex776
apachecn-dl-zh
提交
3b94bf3c
A
apachecn-dl-zh
项目概览
coolalex776
/
apachecn-dl-zh
与 Fork 源项目一致
Fork自
OpenDocCN / apachecn-dl-zh
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
A
apachecn-dl-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
3b94bf3c
编写于
9月 09, 2020
作者:
W
wizardforcel
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
2020-09-09 17:32:49
上级
4823fdf3
变更
11
隐藏空白更改
内联
并排
Showing
11 changed file
with
32 addition
and
32 deletion
+32
-32
docs/tf-20-quick-start-guide/00.md
docs/tf-20-quick-start-guide/00.md
+10
-10
docs/tf-20-quick-start-guide/01.md
docs/tf-20-quick-start-guide/01.md
+1
-1
docs/tf-20-quick-start-guide/03.md
docs/tf-20-quick-start-guide/03.md
+1
-1
docs/tf-20-quick-start-guide/04.md
docs/tf-20-quick-start-guide/04.md
+1
-1
docs/tf-20-quick-start-guide/06.md
docs/tf-20-quick-start-guide/06.md
+1
-1
docs/tf-20-quick-start-guide/07.md
docs/tf-20-quick-start-guide/07.md
+2
-2
docs/tf-20-quick-start-guide/08.md
docs/tf-20-quick-start-guide/08.md
+6
-6
docs/tf-20-quick-start-guide/09.md
docs/tf-20-quick-start-guide/09.md
+1
-1
docs/tf-20-quick-start-guide/s1.md
docs/tf-20-quick-start-guide/s1.md
+3
-3
docs/tf-20-quick-start-guide/s2.md
docs/tf-20-quick-start-guide/s2.md
+2
-2
docs/tf-20-quick-start-guide/s3.md
docs/tf-20-quick-start-guide/s3.md
+4
-4
未找到文件。
docs/tf-20-quick-start-guide/00.md
浏览文件 @
3b94bf3c
...
...
@@ -10,25 +10,25 @@ TensorFlow 是 Python 中最受欢迎的机器学习框架之一。 通过这本
# 本书涵盖的内容
[
第 1 章
](
../Text/01.html
)
和
*引入 TensorFlow 2*
,通过查看一些代码片段(说明一些基本操作)来介绍 TensorFlow。 我们将概述现代 TensorFlow 生态系统,并了解如何安装 TensorFlow。
第 1 章,“TensorFlow 2 简介”
,通过查看一些代码片段(说明一些基本操作)来介绍 TensorFlow。 我们将概述现代 TensorFlow 生态系统,并了解如何安装 TensorFlow。
[
第 2 章
](
../Text/02.html
)
和
*Keras,TensorFlow 2*
的高级 API
,介绍了 Keras API,包括一些一般性的评论和见解,其后以四种不同的形式表示了基本架构 MNIST 数据集训练的方法。
第 2 章,“Keras,TensorFlow 2 的高级 API”
,介绍了 Keras API,包括一些一般性的评论和见解,其后以四种不同的形式表示了基本架构 MNIST 数据集训练的方法。
[
第 3 章
](
../Text/03.html
)
和
*使用 TensorFlow 2*
的 ANN 技术
,探讨了许多支持创建和使用神经网络的技术。 本章将介绍到 ANN 的数据表示,ANN 的层,创建模型,梯度下降算法的梯度计算,损失函数以及保存和恢复模型。
第 3 章,“TensorFlow 2 和 ANN 技术”
,探讨了许多支持创建和使用神经网络的技术。 本章将介绍到 ANN 的数据表示,ANN 的层,创建模型,梯度下降算法的梯度计算,损失函数以及保存和恢复模型。
[
第 4 章
](
../Text/04.html
)
,
*使用 TensorFlow 2*
进行监督的机器学习
,描述了在涉及线性回归的两种情况下使用 TensorFlow 的示例,在这些情况下,特征映射到具有连续值的已知标签,从而可以进行预测 看不见的特征。
第 4 章,“TensorFlow 2 和监督机器学习”
,描述了在涉及线性回归的两种情况下使用 TensorFlow 的示例,在这些情况下,特征映射到具有连续值的已知标签,从而可以进行预测 看不见的特征。
[
第 5 章
](
../Text/05.html
)
,
*使用 TensorFlow 2*
的无监督学习
着眼于自动编码器在无监督学习中的两种应用:首先用于压缩数据;其次用于压缩数据。 第二,用于降噪,换句话说,去除图像中的噪声。
第 5 章,“TensorFlow 2 和无监督学习”
着眼于自动编码器在无监督学习中的两种应用:首先用于压缩数据;其次用于压缩数据。 第二,用于降噪,换句话说,去除图像中的噪声。
[
第 6 章
](
../Text/06.html
)
和
*使用 TensorFlow 2*
识别图像
,首先查看 Google Quick Draw 1 图像数据集,其次查看 CIFAR 10 图像数据集。
第 6 章,“使用 TensorFlow 2 识别图像”
,首先查看 Google Quick Draw 1 图像数据集,其次查看 CIFAR 10 图像数据集。
[
第 7 章
](
../Text/07.html
)
和
*使用 TensorFlow 2*
进行神经样式传递
,说明如何拍摄内容图像和样式图像,然后生成混合图像。 我们将使用经过训练的 VGG19 模型中的图层来完成此任务。
第 7 章,“TensorFlow 2 和神经风格迁移”
,说明如何拍摄内容图像和样式图像,然后生成混合图像。 我们将使用经过训练的 VGG19 模型中的图层来完成此任务。
[
第 8 章
](
../Text/08.html
)
,
*使用 TensorFlow 2*
的递归神经网络
首先讨论了 RNN 的一般原理,然后介绍了如何获取和准备一些文本以供模型使用。
第 8 章,“TensorFlow 2 和循环神经网络”
首先讨论了 RNN 的一般原理,然后介绍了如何获取和准备一些文本以供模型使用。
[
第 9 章
](
../Text/09.html
)
,
*TensorFlow 估算器和 TensorFlow Hub*
首先介绍了用于训练时装数据集的估算器。 我们将看到估计器如何为 TensorFlow 提供简单直观的 API。 我们还将研究用于分析电影反馈数据库 IMDb 的神经网络。
第 9 章, “TensorFlow 估计器和 TensorFlow Hub”
首先介绍了用于训练时装数据集的估算器。 我们将看到估计器如何为 TensorFlow 提供简单直观的 API。 我们还将研究用于分析电影反馈数据库 IMDb 的神经网络。
[
附录
](
../Text/10.html
)
,
*从 tf1.12 转换为 tf2*
包含一些将 tf1.12 文件转换为 tf2 的技巧。
附录,“从 tf1.12 转换为 tf2”
包含一些将 tf1.12 文件转换为 tf2 的技巧。
# 充分利用这本书
...
...
docs/tf-20-quick-start-guide/01.md
浏览文件 @
3b94bf3c
...
...
@@ -760,7 +760,7 @@ indices of min across cols: tf.Tensor([0 1 1], shape=(3,), dtype=int64)
# 使用检查点保存和恢复张量值
为了保存和加载张量值,这是最好的方法(有关保存完整模型的方法,请参见
[
第 2 章
](
../Text/02.html
)
和
*Keras,TensorFlow 2*
的高级 API) ):
为了保存和加载张量值,这是最好的方法(有关保存完整模型的方法,请参见
第 2 章和 “Keras,TensorFlow 2”
的高级 API) ):
```
py
variable
=
tf
.
Variable
([[
1
,
3
,
5
,
7
],[
11
,
13
,
17
,
19
]])
...
...
docs/tf-20-quick-start-guide/03.md
浏览文件 @
3b94bf3c
...
...
@@ -450,7 +450,7 @@ model2.add(tf.keras.layers.Dense(10,activation=tf.nn.softmax))
*
**方法 3**
:使用 Keras 功能 API
*
**方法 4**
:通过将
`tf.keras.Model`
对象子类化
有关这四种方法的详细信息,请参考 TensorFlow 2 的高级 API
[
第 2 章
](
../Text/02.html
)
和
*Keras。*
有关这四种方法的详细信息,请参考 TensorFlow 2 的高级 API
第 2 章
和
*Keras。*
# 梯度下降算法的梯度计算
...
...
docs/tf-20-quick-start-guide/04.md
浏览文件 @
3b94bf3c
...
...
@@ -605,4 +605,4 @@ print("Accuracy = ",accuracy,"%")
在本章中,我们看到了在涉及线性回归的两种情况下使用 TensorFlow 的示例。 其中将特征映射到具有连续值的已知标签,从而可以对看不见的特征进行预测。 我们还看到了逻辑回归的一个示例,更好地描述为分类,其中将要素映射到分类标签,再次允许对看不见的要素进行预测。 最后,我们研究了用于分类的 KNN 算法。
我们现在将在
[
第 5 章
](
../Text/05.html
)
和
*中使用 TensorFlow 2*
进行无监督学习,继续进行无监督学习,在该过程中,要素和标签之间没有初始映射,并且 TensorFlow 的任务是 发现功能之间的关系。
\ No newline at end of file
我们现在将在第 5 章和
*中使用 TensorFlow 2*
进行无监督学习,继续进行无监督学习,在该过程中,要素和标签之间没有初始映射,并且 TensorFlow 的任务是 发现功能之间的关系。
\ No newline at end of file
docs/tf-20-quick-start-guide/06.md
浏览文件 @
3b94bf3c
...
...
@@ -7,7 +7,7 @@
*
快速绘图–使用 TensorFlow 进行图像分类
*
使用 TensorFlow 的 CIFAR 10 图像分类
在第一部分中,我们将使用在前几章中学到的技术开发 TensorFlow 2 模型以进行图像识别,尤其是
[
第 2 章
](
../Text/02.html
)
,
*Keras,TensorFlow 的高级 API 2*
。 这将使我们能够看到如何使用 TensorFlow 2 将所有相关技术结合在一起来创建,训练和评估完整的模型。我们将利用 Quick Draw! Google 提供的图片数据集可帮助您解决此问题。
在第一部分中,我们将使用在前几章中学到的技术开发 TensorFlow 2 模型以进行图像识别,尤其是
第 2 章
,
*Keras,TensorFlow 的高级 API 2*
。 这将使我们能够看到如何使用 TensorFlow 2 将所有相关技术结合在一起来创建,训练和评估完整的模型。我们将利用 Quick Draw! Google 提供的图片数据集可帮助您解决此问题。
# 快速绘图–使用 TensorFlow 进行图像分类
...
...
docs/tf-20-quick-start-guide/07.md
浏览文件 @
3b94bf3c
...
...
@@ -2,7 +2,7 @@
神经风格转换是一种使用神经网络将一幅图像的艺术风格施加到另一幅图像的内容上的技术,因此最终得到的是两种图像的混合体。 您开始使用的图像称为
**内容图像**
。 您在内容图像上加上样式的图像称为
**样式参考图像**
。 Google 将转换后的图像称为
**输入图像**
,这似乎令人困惑(输入是从两个不同来源获取输入的意思); 让我们将其称为
**混合图像**
。 因此,混合图像是具有样式参考图像样式的内容图像。
神经
样式传递
通过定义两个损失函数来工作-一个描述两个图像的内容之间的差异,另一个描述两个图像之间的样式差异。
神经
风格迁移
通过定义两个损失函数来工作-一个描述两个图像的内容之间的差异,另一个描述两个图像之间的样式差异。
为了开始该过程,用内容图像初始化混合图像。 然后,使用反向传播将内容和内容以及混合图像的样式之间的差异(也称为损失或距离)最小化。 这将创建具有样式参考图像样式和内容图像内容的新图像(即混合图像)。
...
...
@@ -514,4 +514,4 @@ show_results(best_image, content_path, style_path)
到此结束我们对神经样式转换的研究。 我们看到了如何拍摄内容图像和样式图像并生成混合图像。 我们使用训练有素的 VGG19 模型中的图层来完成此任务。
在下一章中,我们将研究递归神经网络。 这些网络可以处理顺序的输入值,并且输入值和输出值中的一个或两个具有可变长度。
\ No newline at end of file
在下一章中,我们将研究循环神经网络。 这些网络可以处理顺序的输入值,并且输入值和输出值中的一个或两个具有可变长度。
\ No newline at end of file
docs/tf-20-quick-start-guide/08.md
浏览文件 @
3b94bf3c
# 使用 TensorFlow 2 的
递归
神经网络
# 使用 TensorFlow 2 的
循环
神经网络
包括 ConvNet(CNN)在内的许多神经网络体系结构的主要缺点之一是它们不允许处理顺序数据。 换句话说,一个完整的功能(例如图像)必须一次全部呈现。 因此,输入是固定长度张量,而输出必须是固定长度张量。 先前特征的输出值也不会以任何方式影响当前特征。 同样,所有输入值(和输出值)都应视为彼此独立。 例如,在我们的
`fashion_mnist`
模型(
[
第 4 章
](
../Text/04.html
)
和
*使用 TensorFlow 2*
的有监督机器学习)中,每个输入时尚图像都独立于并且完全不了解先前图像。
包括 ConvNet(CNN)在内的许多神经网络体系结构的主要缺点之一是它们不允许处理顺序数据。 换句话说,一个完整的功能(例如图像)必须一次全部呈现。 因此,输入是固定长度张量,而输出必须是固定长度张量。 先前特征的输出值也不会以任何方式影响当前特征。 同样,所有输入值(和输出值)都应视为彼此独立。 例如,在我们的
`fashion_mnist`
模型(
第 4 章和“使用 TensorFlow 2”
的有监督机器学习)中,每个输入时尚图像都独立于并且完全不了解先前图像。
**
递归
神经网络**
(
**RNN**
)克服了这个问题,并使许多新的应用成为可能。
**
循环
神经网络**
(
**RNN**
)克服了这个问题,并使许多新的应用成为可能。
在本章中,我们将研究以下主题:
...
...
@@ -49,7 +49,7 @@ RNN 的每个单独项目到网络的输入称为**时间步长**。 因此,
![](
img/b33bb6fe-e10b-4a19-be19-ab717ecda115.png
)
展开式
递归
神经网络
展开式
循环
神经网络
RNN 在称为
**的时间反向传播**
(
**BPTT**
)的过程中通过反向传播进行训练。 在此可以想象 RNN 的展开(也称为
**展开**
)会创建一系列神经网络,并且会针对每个时间步长计算误差并将其合并,以便可以将网络中的权重更新为 通常与反向传播。 例如,为了计算梯度,从而计算误差,在时间步
*t = 6*
时,我们将向后传播五个步,并对梯度求和。 但是,在尝试学习长期依赖关系时(即在相距很远的时间步之间),这种方法存在问题,因为梯度可能变得太小而使学习变得不可能或非常缓慢,或者它们可能变得 太大并淹没了网络。 这被称为消失/爆炸梯度问题,并且已经发明了各种修改方法来解决它,包括
**长短期记忆**
(
**LSTM**
)网络和
**门控循环单元**
(
**GRU**
**s**
),我们将在以后使用。
...
...
@@ -57,7 +57,7 @@ RNN 在称为**的时间反向传播**( **BPTT** )的过程中通过反向
![](
img/e6d1b2a6-b40b-45bf-acbc-6c6c1433d13d.png
)
递归
神经网络的示意图
循环
神经网络的示意图
在该图中,我们可以看到以下内容:
...
...
@@ -72,7 +72,7 @@ RNN 在称为**的时间反向传播**( **BPTT** )的过程中通过反向
# RNN 的应用
在此应用程序中,我们将看到如何使用基于字符的
递归
神经网络创建文本。 更改要使用的文本的语料库很容易(请参见下面的示例); 在这里,我们将使用查尔斯·狄更斯(Charles Dickens)的小说
*大期望*
。 我们将在此文本上训练网络,以便如果我们给它一个字符序列,例如
*thousan*
,它将产生序列中的下一个字符
*d*
。 此过程可以继续进行,可以通过在不断演变的序列上反复调用模型来创建更长的文本序列。
在此应用程序中,我们将看到如何使用基于字符的
循环
神经网络创建文本。 更改要使用的文本的语料库很容易(请参见下面的示例); 在这里,我们将使用查尔斯·狄更斯(Charles Dickens)的小说
*大期望*
。 我们将在此文本上训练网络,以便如果我们给它一个字符序列,例如
*thousan*
,它将产生序列中的下一个字符
*d*
。 此过程可以继续进行,可以通过在不断演变的序列上反复调用模型来创建更长的文本序列。
这是训练模型之前创建的文本的示例:
...
...
docs/tf-20-quick-start-guide/09.md
浏览文件 @
3b94bf3c
...
...
@@ -24,7 +24,7 @@
我们将在以下代码中举例说明这些步骤。
我们之前已经看过
`fashion_mnist`
数据集(在
[
第 5 章
](
../Text/05.html
)
和
*中使用 TensorFlow 2*
进行无监督学习),因此我们将再次使用该数据集来演示估计器的用例。
我们之前已经看过
`fashion_mnist`
数据集(在
第 5 章
和
*中使用 TensorFlow 2*
进行无监督学习),因此我们将再次使用该数据集来演示估计器的用例。
# 代码
...
...
docs/tf-20-quick-start-guide/s1.md
浏览文件 @
3b94bf3c
...
...
@@ -4,6 +4,6 @@
本节包含以下章节:
*
[
第 1 章
](
../Text/01.html
)
和
*引入 TensorFlow 2*
*
[
第 2 章
](
../Text/02.html
)
和
*Keras,TensorFlow 2*
的高级 API
*
[
第 3 章
](
../Text/03.html
)
和
*使用 TensorFlow 2*
的 ANN 技术
\ No newline at end of file
*
第 1 章和“TensorFlow 2 简介”
*
第 2 章和 “Keras,TensorFlow 2” 的高级 API
*
第 3 章和“使用 TensorFlow 2” 的 ANN 技术
\ No newline at end of file
docs/tf-20-quick-start-guide/s2.md
浏览文件 @
3b94bf3c
...
...
@@ -4,5 +4,5 @@
本节包含以下章节:
*
[
第 4 章
](
../Text/04.html
)
和
*使用 TensorFlow 2*
进行监督的机器学习
*
[
第 5 章
](
../Text/05.html
)
和
*使用 Tensorflow 2 的无监督学习*
\ No newline at end of file
*
第 4 章和“使用 TensorFlow 2” 进行监督的机器学习
*
第 5 章和
*使用 Tensorflow 2 的无监督学习*
\ No newline at end of file
docs/tf-20-quick-start-guide/s3.md
浏览文件 @
3b94bf3c
...
...
@@ -4,7 +4,7 @@
本节包含以下章节:
*
[
第 6 章
](
../Text/06.html
)
和
*使用 TensorFlow 2*
识别图像
*
[
第 7 章
](
../Text/07.html
)
和
*使用 TensorFlow 2*
进行神经样式传递
*
[
第 8 章
](
../Text/08.html
)
和
*使用 Tensorflow 2 的递归神经网络*
*
[
第 9 章
](
../Text/09.html
)
和
*TensorFlow 估算器和 TensorFlow 集线器*
\ No newline at end of file
*
第 6 章和“使用 TensorFlow 2” 识别图像
*
第 7 章和“使用 TensorFlow 2” 进行神经风格迁移
*
第 8 章和
*使用 Tensorflow 2 的循环神经网络*
*
第 9 章和
*TensorFlow 估算器和 TensorFlow 集线器*
\ No newline at end of file
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录