From ac73e1f98ae634f32cd47a5f01fb694e6bfbeb09 Mon Sep 17 00:00:00 2001 From: wizardforcel <562826179@qq.com> Date: Thu, 6 Aug 2020 12:19:40 +0800 Subject: [PATCH] 2020-08-06 12:19:40 --- docs/mastering-tf-1x-zh/ch02.md | 12 ++++++------ docs/mastering-tf-1x-zh/ch10.md | 2 +- docs/mastering-tf-1x-zh/ch11.md | 2 +- docs/mastering-tf-1x-zh/ch12.md | 2 +- docs/mastering-tf-1x-zh/ch15.md | 2 +- 5 files changed, 10 insertions(+), 10 deletions(-) diff --git a/docs/mastering-tf-1x-zh/ch02.md b/docs/mastering-tf-1x-zh/ch02.md index 872b8b94..72e17067 100644 --- a/docs/mastering-tf-1x-zh/ch02.md +++ b/docs/mastering-tf-1x-zh/ch02.md @@ -117,7 +117,7 @@ TFSlim 提供了几个模块,可以独立挑选和应用,并与其他 Tensor TFSlim 的简单工作流程如下: -1. 使用细长层创建模型。 +1. 使用 Slim 层创建模型。 2. 提供层的输入以实例化模型。 3. 使用对率和标签来定义损失。 4. 使用便利函数`get_total_loss()`获得全部损失。 @@ -305,7 +305,7 @@ TFLearn 在`tflearn.layers.estimator`模块中只提供一层: | --- | --- | | `regression` | 该层实现线性或逻辑回归 | -在创建回归层时,您可以指定优化程序以及损失和度量函数。 +在创建回归层时,您可以指定优化器以及损失和度量函数。 TFLearn 在`tflearn.optimizers`模块中提供以下优化器函数作为类: @@ -436,8 +436,8 @@ PrettyTensor 以名为`apply()`的方法提供了一个非常轻量级和可扩 2. 定义超参数和参数。 3. 定义输入和输出。 4. 定义模型。 -5. 定义评估程序,优化程序和训练器函数。 -6. 创建跑步者对象。 +5. 定义评估器,优化器和训练器函数。 +6. 创建运行器对象。 7. 在 TensorFlow 会话中,使用`runner.train_model()`方法训练模型。 8. 在同一会话中,使用`runner.evaluate_model()`方法评估模型。 @@ -489,7 +489,7 @@ Accuracy after 10 epochs 0.8899999856948853 Sonnet 是一个用 Python 编写的面向对象的库。它是由 DeepMind 在 2017 年发布的。Sonnet 打算从对象中清晰地分离构建计算图的以下两个方面: -* 对象的配置称为模块 +* 称为模块的对象的配置 * 对象与计算图的连接 可以使用以下命令在 Python3 中安装 Sonnet: @@ -521,7 +521,7 @@ pip3 install dm-sonnet 5. 使用模型为训练和测试集定义`y_hat`占位符。 1. 定义训练和测试集的损失占位符。 -2. 使用训练损失占位符定义优化程序。 +2. 使用训练损失占位符定义优化器。 3. 在 TensorFlow 会话中执行所需数量的周期的损失函数以优化参数。 笔记本电脑`ch-02_TF_High_Level_Libraries`中提供了 Sonnet MNIST 分类示例的完整代码。 每个类中的`__init__`方法初始化类和相关的超类。`_build`方法在调用类时创建并返回数据集或模型对象。 Sonnet MNIST 示例的输出如下: diff --git a/docs/mastering-tf-1x-zh/ch10.md b/docs/mastering-tf-1x-zh/ch10.md index 7cebf3e1..d23b099e 100644 --- a/docs/mastering-tf-1x-zh/ch10.md +++ b/docs/mastering-tf-1x-zh/ch10.md @@ -633,7 +633,7 @@ reg_loss = -0.5*tf.reduce_sum(1 + z_log_var - tf.square(z_mean) loss = tf.reduce_mean(rec_loss+reg_loss) ``` -1. 根据`AdapOptimizer`定义优化程序函数: +1. 根据`AdapOptimizer`定义优化器函数: ```py optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate) diff --git a/docs/mastering-tf-1x-zh/ch11.md b/docs/mastering-tf-1x-zh/ch11.md index 78a2900f..5f961867 100644 --- a/docs/mastering-tf-1x-zh/ch11.md +++ b/docs/mastering-tf-1x-zh/ch11.md @@ -211,7 +211,7 @@ output=[ 0.30000001 0.60000002 0.90000004 1.20000005] 在 Keras 中,保存和恢复模型非常简单。 Keras 提供三种选择: -* 使用其网络体系结构,权重(参数),训练配置和优化程序状态保存完整模型。 +* 使用其网络体系结构,权重(参数),训练配置和优化器状态保存完整模型。 * 仅保存架构。 * 只保存权重。 diff --git a/docs/mastering-tf-1x-zh/ch12.md b/docs/mastering-tf-1x-zh/ch12.md index 1a210f99..59bac27e 100644 --- a/docs/mastering-tf-1x-zh/ch12.md +++ b/docs/mastering-tf-1x-zh/ch12.md @@ -1412,7 +1412,7 @@ init_fn = slim.assign_from_checkpoint_fn( variables_to_restore) ``` -1. 定义损失,优化程序和训练操作: +1. 定义损失,优化器和训练操作: ```py tf.losses.softmax_cross_entropy(onehot_labels=y_p, logits=logits) diff --git a/docs/mastering-tf-1x-zh/ch15.md b/docs/mastering-tf-1x-zh/ch15.md index 09d064f9..11dbd6fe 100644 --- a/docs/mastering-tf-1x-zh/ch15.md +++ b/docs/mastering-tf-1x-zh/ch15.md @@ -380,7 +380,7 @@ worker=2, final accuracy = 0.8894000053405762 对于同步更新,需要对代码进行以下修改: -1. 优化器需要包装在`SyncReplicaOptimizer`中。因此,在定义优化程序后,添加以下代码: +1. 优化器需要包装在`SyncReplicaOptimizer`中。因此,在定义优化器后,添加以下代码: ```py # SYNC: next line added for making it sync update -- GitLab