提交 ee10a71e 编写于 作者: W wizardforcel

2020-08-05 17:34:48

上级 efeaf975
......@@ -558,7 +558,7 @@ z_log_var = tf.matmul(layer, params["w_e_z_log_var"]) +
params["b_e_z_log_var"]
```
1. 接下来,定义表示与`z`方差的变量相同形状的噪声分布的 epsilon 变量:
1. 接下来,定义表示与`z`方差的变量相同形状的噪声分布的`epsilon`变量:
```py
epsilon = tf.random_normal(tf.shape(z_log_var),
......
......@@ -14,9 +14,9 @@ TensorFlow 模型在开发环境中经过训练和验证。一旦发布,它们
* TensorFlow 服务
* 安装 TF 服务
* 保存 TF 服务的模型
* 用 TF Serving 服务模型
* 用 TF 服务来服务模型
* TF 在 Docker 容器中提供服务
* TF 服务于 Kubernetes
* Kubernetes 上的 TF 服务
# 在 TensorFlow 中保存和恢复模型
......@@ -55,7 +55,7 @@ with tf.Session() as tfs:
...
```
1. 让我们重温一下[第 1 章](../Text/8.html),TensorFlow 101 的例子,在简单的例子中保存变量的代码如下:
1. 让我们重温一下第 1 章,TensorFlow 101 的例子,在简单的例子中保存变量的代码如下:
```py
# Assume Linear Model y = w * x + b
......@@ -275,13 +275,13 @@ $ sudo apt-get update && sudo apt-get upgrade tensorflow-model-server
$ tensorflow-model-server
```
1. 要连接到`tensorflow-model-server`,请使用 pip 安装 python 客户端软件包:
1. 要连接到`tensorflow-model-server`,请使用 PIP 安装 python 客户端软件包:
```py
$ sudo pip2 install tensorflow-serving-api
```
TF Serving API 仅适用于 Python 2,但尚不适用于 Python 3。
TF 服务 API 仅适用于 Python 2,但尚不适用于 Python 3。
# 保存 TF 服务的模型
......@@ -599,7 +599,7 @@ $ sudo apt-get update && sudo apt-get install docker-ce
$ sudo systemctl enable docker
```
1. 要以非 root 用户身份运行 Docker 或不使用`sudo`,请添加`docker`组:
1. 要以非`root`用户身份运行 Docker 或不使用`sudo`,请添加`docker`组:
```py
$ sudo groupadd docker
......@@ -827,7 +827,7 @@ Inference error rate: 7.0%
Kubernetes 是一个开源系统,用于自动化容器化应用的部署,扩展和管理。
TensorFlow 模型可以扩展为使用生产环境中的 Kubernetes 集群从数百或数千个`TF Serving`服务中提供服务。 Kubernetes 集群可以在所有流行的公共云上运行,例如 GCP,AWS,Azure,以及您的本地私有云。因此,让我们直接学习安装 Kubernetes,然后在 Kubernetes Cluster 上部署 MNIST 模型。
TensorFlow 模型可以扩展为使用生产环境中的 Kubernetes 集群从数百或数千个`TF Serving`服务中提供服务。 Kubernetes 集群可以在所有流行的公共云上运行,例如 GCP,AWS,Azure,以及您的本地私有云。因此,让我们直接学习安装 Kubernetes,然后在 Kubernetes 集群上部署 MNIST 模型。
# 安装 Kubernetes
......@@ -875,7 +875,7 @@ $ conjure-up kubernetes
1. 从法术列表中选择`Kubernetes Core`
2. 从可用云列表中选择`localhost`
3. 从网络列表中选择`lxbr0`网桥。
4. 提供选项的 sudo 密码:将 kubectl 和 kubefed 客户端程序下载到本地主机。
4. 提供选项的`sudo`密码:将 kubectl 和 kubefed 客户端程序下载到本地主机。
5. 在下一个屏幕中,它会要求选择要安装的应用。安装其余五个应用。
您知道当安装期间的最终屏幕如下所示时,Kubernetes 集群已准备好进行酿造:
......@@ -952,7 +952,7 @@ spec:
# type: LoadBalancer
```
如果您在 AWS 或 GCP 云中运行它,则取消注释前一个文件中的`LoadBalancer`行。 由于我们在单个节点上本地运行整个集群,因此我们没有外部 LoadBalancer
如果您在 AWS 或 GCP 云中运行它,则取消注释前一个文件中的`LoadBalancer`行。 由于我们在单个节点上本地运行整个集群,因此我们没有外部负载均衡器
1. 创建 Kubernetes 部署和服务:
......@@ -1075,5 +1075,5 @@ root@mnist-deployment-59dfc5df64-bb24q:~#
在本章中,我们学习了如何利用 TensorFlow 服务来为生产环境中的模型提供服务。我们还学习了如何使用 TensorFlow 和 Keras 保存和恢复完整模型或选择模型。我们构建了一个 Docker 容器,并从官方 TensorFlow 服务仓库中提供了 Docker 容器中的示例 MNIST 示例代码。我们还安装了一个本地 Kubernetes 集群,并部署了 MNIST 模型,用于在 Kubernetes pod 中运行的 TensorFlow 服务。我们鼓励读者在这些例子的基础上进行尝试并尝试提供不同的模型。 TF 服务文档描述了各种选项,并提供了其他信息,使您可以进一步探索此主题。
在接下来的章节中,我们将继续使用迁移学习的高级模型。 TensorFlow 仓库中提供的预训练模型是使用 TF 服务练习服务 TF 模型的最佳候选者。我们使用 Ubuntu 软件包安装了 TF Serving,但您可能希望尝试从源代码构建以优化生产环境的 TF 服务安装。
在接下来的章节中,我们将继续使用迁移学习的高级模型。 TensorFlow 仓库中提供的预训练模型是使用 TF 服务练习服务 TF 模型的最佳候选者。我们使用 Ubuntu 软件包安装了 TF 服务,但您可能希望尝试从源代码构建以优化生产环境的 TF 服务安装。
# 十五、使用 TensorFlow 集群的分布式模型
之前我们学习了如何使用 Kubernetes,Docker 和 TensorFlow 服务在生产中大规模运行 TensorFlow 模型。 TensorFlow 服务并不是大规模运行 TensorFlow 模型的唯一方法。 TensorFlow 提供了另一种机制,不仅可以运行,还可以在多个节点或同一节点上的不同节点和不同设备上训练模型。 在[第 1 章](../Text/8.html),TensorFlow 101 中,我们还学习了如何在不同设备上放置变量和操作。在本章中,我们将学习如何分发 TensorFlow 模型以在多个节点上的多个设备上运行。
之前我们学习了如何使用 Kubernetes,Docker 和 TensorFlow 服务在生产中大规模运行 TensorFlow 模型。 TensorFlow 服务并不是大规模运行 TensorFlow 模型的唯一方法。 TensorFlow 提供了另一种机制,不仅可以运行,还可以在多个节点或同一节点上的不同节点和不同设备上训练模型。 在第 1 章,TensorFlow 101 中,我们还学习了如何在不同设备上放置变量和操作。在本章中,我们将学习如何分发 TensorFlow 模型以在多个节点上的多个设备上运行。
在本章中,我们将介绍以下主题:
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册