提交 41b528bb 编写于 作者: W wizardforcel

2020-08-07 23:06:47

上级 44354057
......@@ -594,7 +594,7 @@ TensorBoard GUI
可以将图的所有张量和操作设置为将信息写入日志。 TensorBoard 分析在`Session`运行时正常编写的信息,并向用户显示许多图形项,每个图形项一个。
### 命令行使用
### 命令行用法
要调用 TensorBoard,命令行为:
......@@ -690,7 +690,7 @@ TensorFlow 中的操作在您运行它们或取决于它们的输出的操作之
TensorFlow 读取许多最标准的格式,包括众所周知的 CSV,图像文件(JPG 和 PNG 解码器)以及标准 TensorFlow 格式。
### 列表格式-CSV
### 列表格式 -- CSV
为了读取众所周知的 CSV 格式,TensorFlow 有自己的方法。 与其他库(例如熊猫)相比,读取简单 CSV 文件的过程稍微复杂一些。
......
......@@ -35,7 +35,7 @@
K 均值是一种非常流行的聚类算法,可以轻松实现。 这非常简单,将它作为具有良好类分离性的数据集的第一个过程应用,可以对数据有很好的先验理解。
## K 均值的力学
## K 均值的原理
K 均值尝试使用成员的平均值作为主要指标,将一组样本分成 k 个不相交的组或簇。 这一点通常称为质心,指代具有相同名称的算术实体,并表示为任意尺寸空间中的向量。
......@@ -96,7 +96,7 @@ K 最近邻(KNN)是一种简单的经典聚类方法,它将很好地介绍
![k-nearest neighbors](img/00029.jpg)
## K 最近邻的力学
## K 最近邻的原理
KNN 可以在我们的多种配置中实现,但是在本章中,我们将使用“半监督”方法。 我们将从一定数量的已分配样本开始,稍后我们将根据训练集的特征猜测集群成员。
......@@ -182,7 +182,7 @@ TensorFlow 当前未实现用于轻松生成合成数据集的方法。 因此
![Synthetic dataset types](img/00032.jpg)
Blob,圆和月亮数据集类型
Blob,圆和月亮数据集类型
### Blob 数据集
......@@ -218,7 +218,7 @@ sklearn.datasets.make_circles(n_samples=100,shuffle=True,noise=None, random_stat
这是另一个非线性问题,但是具有另一种类型的类分离,因为没有诸如圆环之类的闭合。
# 项目 1 -- 在合成数据集上进行 K 均值聚类
# 项目 1 -- 合成数据集上的 K 均值聚类
## 数据集说明和加载
......@@ -424,7 +424,7 @@ print "Cluster assignments:", assignments
这是观察算法机制的最简单情况。 当数据来自真实世界时,这些类通常没有那么清晰地分开,并且标记数据样本更加困难。
## 圆合成数据上的 K 均值
## 圆合成数据上的 K 均值
对于圆图,我们观察到这种数据表征并不容易用一组简单的方法表示。 如图所示,两个圆要么共享一个质心的位置,要么真的很接近,因此我们无法预测明确的结果:
......@@ -440,7 +440,7 @@ K 均值应用于圆形综合数据集
如我们所见,初始中心向样本数量最集中的区域漂移,因此将数据线性划分。 这是我们现阶段使用的简单模型的局限性之一。 为了处理非线性可分离性样本,我们可以尝试本章范围以外的其他统计方法,例如基于密度的带噪应用空间聚类(DBSCAN)。
# 项目 2 -- 综合数据集上的最近邻
# 项目 2 -- 合成数据集上的最近邻
在这个项目中,我们将加载一个数据集,使用该数据集,以前的算法(K 均值)在分离类时遇到问题。
......
......@@ -101,7 +101,7 @@ plt.plot (trX, .2 + 2 * trX)
现在让我们讨论有用的库和模块。
## TensorFlow 中的优化器方法 -- 训练模块
## TensorFlow 中的优化器方法 -- `train`模块
训练或参数优化阶段是机器学习工作流程的重要组成部分。
......
......@@ -80,7 +80,7 @@
逻辑函数或 Sigmoid 的图形表示
## Logistic 函数作为线性建模概括
## Logistic 函数作为线性建模的泛化
逻辑函数`δ(t)`定义如下:
......@@ -108,7 +108,7 @@
什么影响会改变线性函数的参数? 它们是将更改`sigmoid`函数的中心斜率和从零开始的位移的值,从而使其可以更精确地减小回归值与实际数据点之间的误差。
## 逻辑函数的属性
## Logistic 函数的属性
函数空间中的每条曲线都可以通过可能适用的目标来描述。 对于 logistic 函数,它们是:
......@@ -366,7 +366,7 @@ Epoch: 0005 cost= 0.547019333
```
### 跨周期拟合函数的表示
### 拟合函数的跨周期表示
在下图中,我们表示了拟合函数在不同周期之间的进展:
......@@ -478,7 +478,7 @@ with tf.Session() as sess:
![Graphical representation](img/00076.jpg)
# 示例 2 -- 使用 skflow 的单变量 logistic 回归
# 示例 2 -- skflow 中的单变量 logistic 回归
在此示例中,我们将探索单变量示例域,但是这次我们将使用来自新库的帮助,该库为我们简化了模型构建,称为`skflow`
......
......@@ -126,7 +126,7 @@ TensorFlow 损失优化方法如下所述:
* `StandardScaler``fit_transform()`:简单地将数据调整为所需格式。 `StandardScaler`对象将保存转换变量,因此您将能够取回非规格化数据。
* `cross_validation.train_test_split`:此方法将数据集分为训练和测试段,我们只需要提供分配给每个阶段的数据集的百分比即可。
# 第一个项目 -- 非线性合成函数回归
# 第一个项目 -- 合成函数的非线性回归
人工神经网络示例通常包含绝大多数分类问题,但实际上有大量应用可以表示为回归。
......@@ -157,7 +157,7 @@ dsY = 0.4* pow(dsX,2) +2 * dsX + np.random.randn(*dsX.shape) * 0.22 + 0.8
该数据集在生成时不需要进行预处理,并且具有良好的属性,例如居中并具有`-1, 1`的样本分布。
## 建模架构 -- 损失函数描述
## 模型架构 -- 损失函数描述
此设置的损耗将简单地用均方根误差表示,如下所示:
......@@ -255,7 +255,7 @@ Average cost for epoch 8:[[ 0.00621457]]
Average cost for epoch 9:[[ 0.0007379]]
```
# 第二个项目 -- 使用非线性回归建模汽车的燃油效率
# 第二个项目 -- 非线性回归和汽车的燃油效率建模
在此示例中,我们将进入一个区域,其中神经网络可提供大部分附加价值; 解决非线性问题。 为了开始这一旅程,我们将基于几个变量对几种汽车模型的燃油效率建模一个回归模型,该变量可以更好地用非线性函数表示。
......@@ -290,7 +290,7 @@ Average cost for epoch 9:[[ 0.0007379]]
* `scaler = preprocessing.StandardScaler()`
* `X_train = scaler.fit_transform(X_train)`
## 建模架构
## 模型架构
我们将要构建的是一个前馈神经网络,具有多变量输入和简单输出:
......@@ -366,7 +366,7 @@ print(" Total Mean Squared Error: " + str(score))
```
# 第三个项目 -- 学习葡萄酒分类:多类分类
# 第三个项目 -- 葡萄酒分类:多类分类的学习
在本节中,我们将使用更复杂的数据集,尝试根据产地对葡萄酒进行分类。
......@@ -423,7 +423,7 @@ X = scaler.fit_transform(X)
```
## 建模架构
## 模型架构
这个特定的模型将由一个单层,全连接的神经网络组成:
......
......@@ -48,7 +48,7 @@
![Discrete convolution](img/00092.jpg)
## 核和卷积
## 卷积核
在离散域中应用卷积的概念时,经常会使用内核。
......@@ -160,7 +160,7 @@ coord.join(threads)
```
### 样本内核结果
### 示例核的结果
在下图中,您可以观察到参数的变化如何影响图像的结果。 第一张图片是原始图片。
......@@ -168,9 +168,9 @@ coord.join(threads)
![Sample kernels results](img/00094.jpg)
## 二次采样操作-合并
## 二次采样操作 -- 池化
在 TensorFlow 中通过称为池的操作执行二次采样操作。 这个想法是应用一个(大小不一的)内核并提取内核覆盖的元素之一,其中`max_pool``avg_pool`是最著名的一些元素,它们仅获得最大和平均值。 应用内核的元素。
在 TensorFlow 中通过称为池的操作执行二次采样操作。 这个想法是应用一个(大小不一的)内核并提取内核覆盖的元素之一,其中`max_pool``avg_pool`是最著名的一些元素,它们仅获得最大和平均值。 应用内核的元素。
在下图中,您可以看到将`2x2`内核应用于单通道`16x16`矩阵的操作。 它只是保持其覆盖的内部区域的最大值。
......@@ -186,7 +186,7 @@ coord.join(threads)
下采样层还允许将信息的重要部分从数据的详细表示转换为更简单的表示。 通过在图像上滑动滤镜,我们将检测到的特征转换为更重要的图像部分,最终达到 1 像素的图像,该特征由该像素值表示。 相反,此属性也可能导致模型丢失特征检测的局部性。
### 下采样层实现表现
### 下采样层实现表现
下采样层的实现要快得多,因为未使用的数据元素的消除标准非常简单。 通常,它只需要进行几个比较。
......@@ -300,7 +300,7 @@ tf.nn.dropout (x, keep_prob, noise_shape, seed, name)
可能使您感到惊讶的一个因素是应用于非放置元素的比例因子。 这项技术用于维护相同的网络,并在训练时将`keep_prob`设为 1,将其恢复到原始架构。
## 卷积类型层构建方法
## 卷积层的构建方法
为了构建卷积神经网络层,存在一些通用的实践和方法,可以在构建深度神经网络的方式中将其视为准规范。
......@@ -371,7 +371,7 @@ plt.imshow(mnist.train.images[0].reshape((28, 28), order='C'), cmap='Greys', int
在此示例中,我们将不进行任何预处理; 我们只会提到,仅通过使用线性变换的现有样本(例如平移,旋转和倾斜的样本)扩展数据集示例,就可以实现更好的分类评分。
## 建模架构
## 模型架构
在这里,我们将研究为该特定架构选择的不同层。
......@@ -579,7 +579,7 @@ with tf.Session() as sess:
```
# 示例 2 -- 使用 CIFAR10 数据集进行图像分类
# 示例 2 -- CIFAR10 数据集和图像分类
在此示例中,我们将研究图像理解中使用最广泛的数据集之一,该数据集用作简单但通用的基准。 在此示例中,我们将构建一个简单的 CNN 模型,以了解解决此类分类问题所需的一般计算结构。
......@@ -608,7 +608,7 @@ images_unroll = A [:,1:]
```
## 建模架构
## 模型架构
在这里,我们将定义我们的建模函数,该函数是一系列卷积和池化操作,并使用最终的平坦层和逻辑回归来确定当前样本的分类概率。
......
......@@ -187,7 +187,7 @@ max 338.218126
![Dataset preprocessing](img/00115.jpg)
## 建模架构
## 模型架构
在这里,我们将简要描述将尝试对电力消耗变化进行建模的架构:
......@@ -556,7 +556,7 @@ python generate_dataset.py > input.txt
![Vocabulary definition](img/00123.jpg)
### 建模架构
### 模型架构
下面的行中描述了此 RNN 的模型,它是具有初始零状态的多层 LSTM:
......
......@@ -130,7 +130,7 @@ ResNet 一般架构
* 高效神经网络(Enet):旨在构建更简单,低延迟的浮点运算数量,具有实时结果的神经网络
* Fractalnet:它的主要特征是非常深的网络的实现,不需要残留的架构,将结构布局组织为截断的分形
# 示例 -- 使用风格绘画 -- VGG 风格迁移
# 示例 -- 风格绘画 -- VGG 风格迁移
在此示例中,我们将配合 Leon Gatys 的论文《艺术风格的神经算法》的实现。
......@@ -169,9 +169,9 @@ scipy.io.loadmat(file_name, mdict=None, appendmat=True, **kwargs)
假设系数是在加载的参数矩阵中给出的,那么关于初始数据集的工作就不多了。
## 建模架构
## 模型架构
建模架构主要分为两部分:风格和内容。
模型架构主要分为两部分:风格和内容。
为了生成最终图像,使用了没有最终完全连接层的 VGG 网络。
......
......@@ -21,7 +21,7 @@ TensorFlow 对至少两种计算设备具有本机支持:CPU 和 GPU。 为此
![GPU support on TensorFlow](img/00136.jpg)
## 记录设备放置和设备能力
## 记录设备放置和设备能力
在尝试执行计算之前,TensorFlow 允许您记录所有可用资源。 这样,我们只能将操作应用于现有的计算类型。
......@@ -180,7 +180,7 @@ for d in ['/gpu:0', '/gpu:1', '/gpu:2', '/gpu:3']:
服务器是代表专用于实现任务的一组物理设备的逻辑对象。 服务器将专门分配给一个任务。
#### 组合概述
#### 组件概览
在下图中,我们将代表集群计算设置中的所有参与部分:
......
......@@ -36,7 +36,7 @@
在 AWS 上,非常适合的 AMI 映像是代码`ami-cf68e0d8`。 它可以在 CPU 上运行良好,如果需要,也可以在 GPU 图像上运行。
## Ubuntu 准备任务(需要在任何方法之前应用)
## Ubuntu 准备(需要在任何方法之前应用)
在开发最近发布的 Ubuntu 16.04 时,我们将确保已更新到最新的软件包版本,并且安装了最小的 Python 环境。
......@@ -49,7 +49,7 @@ $ sudo apt-get install -y build-essential python-pip python-dev python-numpy swi
```
## PIP Linux 安装方法
## PIP 安装方法
在本节中,我们将使用 PIP(PIP 安装软件包)软件包管理器来获取 TensorFlow 及其所有依赖项。
......@@ -271,7 +271,7 @@ docker run -it -p 8888:8888 gcr.io/tensorflow/tensorflow
许多示例使用 Jupyter 笔记本格式。 为了执行和运行它们,您可以在其主页 [jupyter.org](http://jupyter.org) 上找到有关许多架构的安装和使用的信息。
## 从源代码安装 Linux
## 从源代码安装
现在我们来看看 TensorFlow 的最完整,对开发人员友好的安装方法。 从源代码安装将使您了解用于编译的不同工具。
......@@ -281,7 +281,7 @@ Git 是现有的最著名的源代码版本管理器之一,并且是 Google
为了下载 TensorFlow 的源代码,我们将首先安装 Git 源代码管理器:
#### Linux 中的 Git 安装(Ubuntu 16.04)
#### 在 Linux 中安装 Git(Ubuntu 16.04)
要在您的 Ubuntu 系统上安装 Git,请运行以下命令:
......@@ -586,7 +586,7 @@ run -it -p 8888:8888 gcr.io/tensorflow/tensorflow bash
安装要求安装用户具有`sudo`特权。
## 安装
## 安装 PIP
在此步骤中,我们将使用`easy_install`软件包管理器安装 PIP 软件包管理器,该软件包管理器包含在安装工具 Python 软件包中,并且默认情况下包含在操作系统中。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册