Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
apachecn-dl-zh
提交
b7556e09
A
apachecn-dl-zh
项目概览
OpenDocCN
/
apachecn-dl-zh
大约 1 年 前同步成功
通知
298
Star
83
Fork
35
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
A
apachecn-dl-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
b7556e09
编写于
8月 03, 2020
作者:
W
wizardforcel
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
2020-08-03 22:31:26
上级
ddf88bed
变更
5
隐藏空白更改
内联
并排
Showing
5 changed file
with
36 addition
and
36 deletion
+36
-36
docs/tf-ml-cookbook-2e-zh/ch01.md
docs/tf-ml-cookbook-2e-zh/ch01.md
+23
-23
docs/tf-ml-cookbook-2e-zh/ch02.md
docs/tf-ml-cookbook-2e-zh/ch02.md
+6
-6
docs/tf-ml-cookbook-2e-zh/ch05.md
docs/tf-ml-cookbook-2e-zh/ch05.md
+1
-1
docs/tf-ml-cookbook-2e-zh/ch06.md
docs/tf-ml-cookbook-2e-zh/ch06.md
+3
-3
docs/tf-ml-cookbook-2e-zh/ch10.md
docs/tf-ml-cookbook-2e-zh/ch10.md
+3
-3
未找到文件。
docs/tf-ml-cookbook-2e-zh/ch01.md
浏览文件 @
b7556e09
...
...
@@ -452,36 +452,36 @@ print(sess.run(tf.cross([1., 0., 0.], [0., 1., 0.])))
| | |
| --- | --- |
|
`abs()`
|
一个
输入张量的绝对值 |
|
`ceil()`
|
一个
输入张量的向上取整函数 |
|
`cos()`
|
一个
输入张量的余弦函数 |
|
`exp()`
|
基于
`e`
指数的一个输入张量
|
|
`floor()`
|
一个
输入张量的向下取整函数 |
|
`inv()`
|
一个输入张量的乘法逆(1 / x
) |
|
`log()`
|
一个
输入张量的自然对数 |
|
`maximum()`
|
元素最多两个张量
|
|
`minimum()`
| 两个张量的
元素分钟
|
|
`neg()`
|
负输入张量为负
|
|
`pow()`
| 第一个张量元素
提升到第二个张量元素
|
|
`round()`
|
舍入一个输入张量
|
|
`rsqrt()`
|
一个超过一个张量的平方根
|
|
`sign()`
| 返回
-1,
0 或 1,具体取决于张量的符号 |
|
`sin()`
|
一个
输入张量的正弦函数 |
|
`sqrt()`
|
一个
输入张量的平方根 |
|
`square()`
|
一个
输入张量的平方 |
|
`abs()`
| 输入张量的绝对值 |
|
`ceil()`
| 输入张量的向上取整函数 |
|
`cos()`
| 输入张量的余弦函数 |
|
`exp()`
|
输入张量的基于
`e`
指数
|
|
`floor()`
| 输入张量的向下取整函数 |
|
`inv()`
|
输入张量的乘法逆(
`1 / x`
) |
|
`log()`
| 输入张量的自然对数 |
|
`maximum()`
|
两个张量的逐元素最大值
|
|
`minimum()`
| 两个张量的
逐元素最小值
|
|
`neg()`
|
输入张量的反转
|
|
`pow()`
| 第一个张量元素
的第二个张量元素次幂
|
|
`round()`
|
输入张量的舍入
|
|
`rsqrt()`
|
输入张量的平方根倒数
|
|
`sign()`
| 返回
-1,
0 或 1,具体取决于张量的符号 |
|
`sin()`
| 输入张量的正弦函数 |
|
`sqrt()`
| 输入张量的平方根 |
|
`square()`
| 输入张量的平方 |
1.
专业数学函数:有一些特殊的数学函数可以在机器学习中使用,值得一提,TensorFlow 为它们提供了内置函数。同样,除非另有说明,否则这些函数在元素方面运行:
| | |
| --- | --- |
|
`digamma()`
| Psi 函数,
`lgamma()`
函数的导数 |
|
`erf()`
|
高斯误差函数,元素方式,一个张量
|
|
`erfc()`
|
一个
张量的互补误差函数 |
|
`igamma()`
|
降
低正则化的不完全伽玛函数 |
|
`igammac()`
|
上正则化
不完全伽马函数 |
|
`lbeta()`
|
β
函数绝对值的自然对数 |
|
`erf()`
|
张量的逐元素高斯误差函数
|
|
`erfc()`
| 张量的互补误差函数 |
|
`igamma()`
|
较
低正则化的不完全伽玛函数 |
|
`igammac()`
|
较高正则化的
不完全伽马函数 |
|
`lbeta()`
|
Beta
函数绝对值的自然对数 |
|
`lgamma()`
| 伽玛函数绝对值的自然对数 |
|
`squared_difference()`
|
计算
两个张量之间差异的平方 |
|
`squared_difference()`
| 两个张量之间差异的平方 |
## 工作原理
...
...
docs/tf-ml-cookbook-2e-zh/ch02.md
浏览文件 @
b7556e09
...
...
@@ -379,10 +379,10 @@ plt.show()
| 损失函数 | 任务 | 优点 | 缺点 |
| --- | --- | --- | --- |
| L2 | 回归 | 更稳定 | 不太
健壮
|
| L2 | 回归 | 更稳定 | 不太
强大
|
| L1 | 回归 | 更强大 | 不太稳定 |
| 伪
胡伯 | 回归 | 更稳健
,更稳定 | 还有一个参数 |
|
合页
| 分类 | 创建 SVM 中使用的最大边距 | 受到异常值影响的无限损失 |
| 伪
Huber | 回归 | 更强大
,更稳定 | 还有一个参数 |
|
Hinge
| 分类 | 创建 SVM 中使用的最大边距 | 受到异常值影响的无限损失 |
| 交叉熵 | 分类 | 更稳定 | 无限损失,不那么强大 |
剩余的分类损失函数都与交叉熵损失的类型有关。交叉熵 sigmoid los 函数用于未缩放的 logits,并且优于计算 sigmoid 然后交叉熵,因为 TensorFlow 具有更好的内置方式来处理数字边缘情况。 softmax 交叉熵和稀疏 softmax 交叉熵也是如此。
...
...
@@ -397,7 +397,7 @@ plt.show()
| 均方根误差 | 对于连续模型,它通过平均平方误差的平方根来测量预测与实际之间的差异。 |
| 混淆矩阵 | 对于分类模型,我们查看预测类别与实际类别的矩阵。一个完美的模型具有沿对角线的所有计数。 |
| 召回 | 对于分类模型,这是所有预测阳性的真阳性分数。 |
| 精确 | 对于分类模型,这是所有实际
正数的真实积极
分数。 |
| 精确 | 对于分类模型,这是所有实际
阳性的真阳性
分数。 |
| F-得分 | 对于分类模型,这是精度和召回的调和平均值。 |
# 实现反向传播
...
...
@@ -727,9 +727,9 @@ plt.show()
## 更多
| 训练类型 |
好处
| 缺点 |
| 训练类型 |
优点
| 缺点 |
| --- | --- | --- |
| 随机 | 随机性可能有助于摆脱
当地的最低限度
。 | 通常,需要更多迭代才能收敛。 |
| 随机 | 随机性可能有助于摆脱
局部的最小值
。 | 通常,需要更多迭代才能收敛。 |
| 批量 | 更快地找到最小值。 | 需要更多资源来计算。 |
# 把所有东西结合在一起
...
...
docs/tf-ml-cookbook-2e-zh/ch05.md
浏览文件 @
b7556e09
...
...
@@ -298,7 +298,7 @@ print(sess.run(edit_distances, feed_dict=feed_dict))
| 名称 | 描述 | 公式 |
| --- | --- | --- |
| 汉明距离 | 相同位置的相等字符的数量。仅在字符串长度相等时有效。 | !
[](
img/3f9a30b1-0aff-4c8d-b1ca-f00744f177cf.png
)
,其中
`I`
是相等字符的指示函数。 |
| 余弦距离 |
`k`
- 差异的点积除以
`k`
-
差异的 L2 范数。 | !
[](
img/0015e197-fc53-491a-82a0-9d1acfc4b795.png
)
|
| 余弦距离 |
`k`
差异的点积除以
`k`
差异的 L2 范数。 | !
[](
img/0015e197-fc53-491a-82a0-9d1acfc4b795.png
)
|
| 雅克卡距离 | 共同的字符数除以两个字符串中的字符总和。 | !
[](
img/b9646b5b-e1cf-4fc1-9099-9dd1c9813b07.png
)
|
# 使用混合距离函数的计算
...
...
docs/tf-ml-cookbook-2e-zh/ch06.md
浏览文件 @
b7556e09
...
...
@@ -309,10 +309,10 @@ plt.show()
由于 ReLU 激活函数的形式,它比 sigmoid 函数更频繁地返回零值。我们认为这种行为是一种稀疏性。这种稀疏性导致收敛速度加快,但失去了受控梯度。另一方面,S 形函数具有非常良好控制的梯度,并且不会冒 ReLU 激活所带来的极值的风险,如下图所示:
| 激活函数 |
好处
| 缺点 |
| 激活函数 |
优点
| 缺点 |
| --- | --- | --- |
| Sigmoid | 不太极端的
产
出 | 收敛速度较慢 |
| RELU | 更快地
融合 | 极端输出值可能
|
| Sigmoid | 不太极端的
输
出 | 收敛速度较慢 |
| RELU | 更快地
收敛 | 可能有极端的输出值
|
## 更多
...
...
docs/tf-ml-cookbook-2e-zh/ch10.md
浏览文件 @
b7556e09
...
...
@@ -783,10 +783,10 @@ $ tensorflow_model_server --port=9000 --model_name=spam_ham --model_base_path=<d
如果我们将早期的生产规模部分与前一部分进行比较,主要区别在于我们在主机上部署了可以响应传入请求的模型服务器。前面的部分是一个很好的设置示例,用于执行批量结果或在可以加载 TensorFlow 的机器上工作,但秘籍不是很擅长部署可用的模型,可以进行计算,并将结果返回给任何客户。在本节中,我们将了解如何处理这种体系结构,如下表所示:
| | 第 5 节 - 批量
生产 | 第 6 节 - 通过 TensorFlow 服务生产
|
| | 第 5 节 - 批量
作业 | 第 6 节 - 通过 TensorFlow 服务的作业
|
| --- | --- | --- |
| 优点 | 不依赖于网络连接或主机 | 结果与客户端结构无关,唯一的要求是 Numpy 数组的正确格式化二进制文件 |
| 缺点 | 客户端必须具有 TensorFlow 和模型文件 | 依靠
主机可用
|
| 优点 | 不依赖于网络连接或主机 | 结果与客户端结构无关,唯一的要求是 Numpy 数组的正确格式化
的
二进制文件 |
| 缺点 | 客户端必须具有 TensorFlow 和模型文件 | 依靠
可用的主机
|
| 理想的用途 | 大批量数据 | 生产服务始终可用,通常是小的请求 |
当然,每种方法的优缺点都值得商榷,两者都能满足每种情况的要求。还有许多其他可用的架构可以满足不同的需求,例如 Docker,Kubernetes,Luigi,Django / Flask,Celery,AWS 和 Azure。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录