提交 5de57caf 编写于 作者: W wizardforcel

2020-08-07 17:19:27

上级 b4b19169
......@@ -26,7 +26,7 @@ TensorFlow 的数据管理基于张量。 张量是来自数学领域的概念
张量阶数表示张量的维度方面,但与矩阵阶数不同。 它表示张量所处的维数,而不是行/列或等效空间中张量扩展的精确度量。
张量等于向量,秩张量是矩阵。 对于第二张量,您可以使用语法 t [i,j]访问任何元素。 对于三阶张量,您将需要使用 t [i,j,k]来寻址元素,依此类推。
为 1 的张量等于向量,秩为 2 的张量是矩阵。 对于二阶张量,您可以使用语法`t[i, j]`访问任何元素。 对于三阶张量,您将需要使用`t[i, j, k]`来寻址元素,依此类推。
在下面的示例中,我们将创建一个张量,并访问其分量之一:
......@@ -52,7 +52,7 @@ TensorFlow 的数据管理基于张量。 张量是来自数学领域的概念
TensorFlow 文档使用三种符号约定来描述张量维数:阶数,形状和维数。 下表显示了它们之间的相互关系:
| 秩 | 形状 | 维度数量 | 例 |
| 秩 | 形状 | 维度数量 | 例 |
| --- | --- | --- | --- |
| 0 | `[]` | 0 | `4` |
| 1 | `[D0]` | 1 | `[2]` |
......@@ -78,7 +78,7 @@ TensorFlow 文档使用三种符号约定来描述张量维数:阶数,形状
| `DT_INT64` | `tf.int64` | 64 位有符号整数。 |
| `DT_UINT8` | `tf.uint8` | 8 位无符号整数。 |
| `DT_STRING` | `tf.string` | 可变长度字节数组。 张量的每个元素都是一个字节数组。 |
| `DT_BOOL` | `tf.bool` | 布尔。 |
| `DT_BOOL` | `tf.bool` | 布尔。 |
## 创建新的张量
......@@ -653,8 +653,8 @@ TensorFlow 中的操作在您运行它们或取决于它们的输出的操作之
这些是特殊函数,用于合并不同操作的值,无论是摘要的集合,还是图中的所有摘要:
* `tf.merge_summary`(输入,集合=无,名称=无)
* `tf.merge_all_summaries`(键=“摘要”)
* `tf.merge_summary(input, collection=None, name=None)`
* `tf.merge_all_summaries(key="summary")`
最后,作为提高可读性的最后一项帮助,可视化对常数和汇总节点使用特殊的图标。 总而言之,这是节点符号表:
......@@ -666,8 +666,8 @@ TensorFlow 中的操作在您运行它们或取决于它们的输出的操作之
| ![Special Summary functions](img/00014.jpg) | 单个操作节点。 |
| ![Special Summary functions](img/00015.jpg) | 一个常数。 |
| ![Special Summary functions](img/00016.jpg) | 摘要节点。 |
| ![Special Summary functions](img/00017.jpg) | 边缘显示操作之间的数据流。 |
| ![Special Summary functions](img/00018.jpg) | 边缘显示操作之间的控制依赖性。 |
| ![Special Summary functions](img/00017.jpg) | 显示操作之间的数据流的边。 |
| ![Special Summary functions](img/00018.jpg) | 显示操作之间的控制依赖性的边。 |
| ![Special Summary functions](img/00019.jpg) | 显示输出操作节点可以改变输入张量的参考边。 |
### 与 TensorBoard 的 GUI 交互
......
......@@ -132,7 +132,7 @@ k-nn 可以在我们的多种配置中实现,但是在本章中,我们将使
在 matplotlib 站点(`http://matplotlib.org/`)中,定义为:
> “ matplotlib 是一个 Python 2D 绘图库,它以各种硬拷贝格式和跨平台的交互式环境生成出版物质量的图形。”
> matplotlib 是一个 Python 2D 绘图库,它以各种硬拷贝格式和跨平台的交互式环境生成出版物质量的图形。
#### 合成样本的数据绘图
......@@ -168,7 +168,7 @@ TensorFlow 当前未实现用于轻松生成合成数据集的方法。 因此
[从其网站](http://scikit-learn.org/stable/)
> “ scikit-learn(以前为 scikits.learn)是针对 Python 编程语言的开源机器学习库。它具有各种分类,回归和聚类模型,旨在与 Python 数字和科学库 NumPy 和 SciPy 互操作。”
> scikit-learn(以前为`scikits.learn`)是针对 Python 编程语言的开源机器学习库。它具有各种分类,回归和聚类模型,旨在与 Python 数字和科学库 NumPy 和 SciPy 互操作。
在此示例中,我们将使用数据集模块,该模块处理许多众所周知的合成和现场提取的数据集的生成和加载。
......
......@@ -403,9 +403,9 @@ plt.plot (trX, sess.run(b) + trX * sess.run(w))
当我们想快速读取并获得有关正常大小的数据文件的提示时,创建读取缓冲区和其他附加机制可能会减少开销。 这是熊猫当前的现实生活用例之一。
这是[ Pandas 网站](http://pandas.pydata.org/)的摘录:
这是 [Pandas 网站](http://pandas.pydata.org/)的摘录:
> “ Pandas 是 BSD 许可的开放源代码库,为 Python 提供了高表现,易于使用的数据结构和数据分析工具。”
> Pandas 是 BSD 许可的开放源代码库,为 Python 提供了高表现,易于使用的数据结构和数据分析工具。
熊猫的主要特征如下:
......
......@@ -70,7 +70,7 @@
正如 LeCun 在他的基础论文中所述:
> “卷积网络可以看作是合成自己的特征提取器。”
> 卷积网络可以看作是合成自己的特征提取器。
卷积神经网络的这一特性是相对于以前的数据处理技术的主要优势。 我们可以非常灵活地确定已确定数据集的主要组成部分,并通过这些基本构件的组合来表示其他样本。
......
......@@ -373,7 +373,7 @@ plt.legend(handles=[plot_predicted, plot_test])
```
# 示例 2 -- 编写音乐 “a la” Bach
# 示例 2 -- 编写音乐“a la” Bach
在此示例中,我们将使用专门针对字符序列或 char RNN 模型的循环神经网络。
......@@ -478,7 +478,7 @@ K:G
* `tf.train.Saver.restore`:此方法恢复以前保存的变量。 主要参数如下:
* `session`:会话是要还原变量的位置
* `save_path`:这是先前由 save 方法,对 last_checkpoint()的调用或提供的变量先前返回的变量
* `save_path`:这是先前由 save 方法,对`last_checkpoint()`的调用或提供的变量先前返回的变量
### 加载和保存的伪代码
......@@ -525,7 +525,7 @@ for i in range (1,1000):
请注意,原始 ABC 文件位于[此链接](http://www.barfly.dial.pipex.com/Goldbergs.abc)
然后,我们使用这个小程序()
然后,我们使用这个小程序。
对于此数据集,我们从`30`作品开始,然后生成一个随机分布的`1000`实例列表:
......
......@@ -18,7 +18,7 @@
在 1980 年代和 1990 年代,神经网络领域一直保持沉默。 尽管付出了一些努力,但是架构非常简单,并且需要大的(通常是不可用的)机器力量来尝试更复杂的方法。
1998 年左右,在 Bells 实验室中,在围绕手写校验数字分类的研究中,Ian LeCun 开始了一种新趋势,该趋势实现了所谓的“深度学习-卷积神经网络”的基础,我们已经在第 5 章,简单的前馈神经网络中对其进行了研究。
1998 年左右,在 Bells 实验室中,在围绕手写校验数字分类的研究中,Ian LeCun 开始了一种新趋势,该趋势实现了所谓的“深度学习——卷积神经网络”的基础,我们已经在第 5 章,简单的前馈神经网络中对其进行了研究。
在那些年里,SVM 和其他更严格定义的技术被用来解决这类问题,但是有关 CNN 的基础论文表明,与当时的现有方法相比,神经网络的表现可以与之媲美或更好。
......
......@@ -107,7 +107,7 @@ Pi 的面积比例
另一个事实是,我们可以为计算生成的随机样本越多,答案就越近似。 这是在增加 GPU 数量时会给我们带来更多样本和准确率。
我们做的进一步减少是我们生成(X,Y)坐标,范围从(0..1),因此随机数生成更直接。 因此,我们需要确定样本是否属于圆的唯一标准是`distance = d < 1.0`(圆的半径)。
我们做的进一步减少是我们生成(X,Y)坐标,范围从(0..1),因此随机数生成更直接。 因此,我们需要确定样本是否属于圆的唯一标准是`distance = d < 1.0`(圆的半径)。
## 解决方案实现
......@@ -115,7 +115,7 @@ Pi 的面积比例
### 提示
注意:此方法的收敛速度非常慢,为 O(n &lt;sup class="calibre32"&gt;1/2&lt;/sup&gt;,但由于其简单性,将作为示例。
注意:此方法的收敛速度非常慢,为`O(n^1/2)`,但由于其简单性,将作为示例。
![Solution implementation](img/00142.jpg)
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册