提交 abcb020a 编写于 作者: W wizardforcel

2020-12-27 21:21:49

上级 f1aaa9a3
......@@ -6,11 +6,11 @@
我们将在本章中介绍以下主题:
* 集成方法及其工作
* 集成方法及其工作原理
* 集成回归方法
* 类方法
* 集成分类方法
# 集成方法及其工作
# 集成方法及其工作原理
集成方法基于一个非常简单的思想:我们不是使用单个模型进行预测,而是使用许多模型,然后使用某种方法来**汇总**预测。 具有不同的模型就像具有不同的观点,并且已经证明,通过汇总提供不同观点的模型,可以得到不同的结果。 预测可以更准确。 这些方法进一步提高了单个模型的通用性,因为它们降低了选择效果不佳的分类器的风险:
......@@ -25,7 +25,7 @@
* 自举采样
* 装袋
* 随机森林
* 助推
* 提升
在对这些方法进行高级解释之前,我们需要讨论一种非常重要的统计技术,称为**自举抽样**
......
......@@ -33,7 +33,7 @@
以下是我们采用 5 倍交叉验证方法执行的步骤:
1. 我们对评估指标进行了首次估
1. 我们对评估指标进行了首次估
2. 我们将第二部分用于测试,其余部分用于训练,然后使用它来获得评估指标的第二估计。
3. 我们将第三部分用于测试,将其余部分用于训练,依此类推。 这样,我们获得了评估指标的五种估计。
......
......@@ -6,7 +6,7 @@
* 特征选择方法
* 降维和 PCA
* 创建新功能
* 创建新特征
* 通过特征工程改进模型
# 特征选择方法
......@@ -14,7 +14,7 @@
特征选择方法用于选择可能有助于预测的特征。 以下是三种功能选择方法:
* 删除低方差的虚拟特征
* 统计确定重要特征
* 通过统计确定重要特征
* 递归特征消除
在建立预测分析模型时,某些功能将与目标无关,这将对预测没有太大帮助。 现在的问题是,在模型中包含不相关的特征会引入噪声并给模型增加偏差。 因此,特征选择技术是用于选择最相关和最有用的特征的一组技术,这些特征将有助于预测或理解我们的模型。
......@@ -37,7 +37,7 @@
有以下几种方法可以选择模型中的重要功能:
* L1 功能
* L1 特征
* 选择阈值方法
* 基于树的方法
......
......@@ -5,7 +5,7 @@
以下是随着我们的前进将涉及的主题:
* 人工神经网络简介
* 深度神经网络的
* 深度神经网络的
* TensorFlow 的安装和介绍
* TensorFlow 的核心概念
......@@ -188,10 +188,10 @@ pip install --ignore-installed --upgrade tensorflow
* 张量
* 计算图
* 届会
*
* 会话
*
* 占位符
*
*
# 张量
......
......@@ -154,7 +154,7 @@ TF 2.0 可以通过两种主要方式使用-使用低级 API 和使用高级 API
参差不齐的张量也可以定义为具有一个或多个参差不齐的尺寸的张量。 换句话说,具有可变长度切片的尺寸。 由于最常见的用例涉及处理有限数量的记录,因此参差不齐的张量要求最外面的维度是统一的,换句话说,该维度的所有切片都应具有相同的长度。 最外部尺寸之前的尺寸可以既参差不齐,也可以统一。 总结一下这些要点,我们可以指出,参差不齐的张量的形状目前仅限于以下形式:
*统一尺寸
*统一尺寸
* 后跟一个或多个参差不齐的尺寸
* 后跟零个或更多个统一尺寸
......
......@@ -183,7 +183,7 @@ results = model.evaluate(
TF 2.0 支持以多种模式保存和恢复模型:
* 仅模型架构(Keras)
* 仅模型重量(Keras)
* 仅模型权重(Keras)
* 整个模型:...
# 分别加载和保存架构和权重
......@@ -279,7 +279,7 @@ my_model_replica.set_weights(
* 模型的架构
* 模型的权重值(如果适用,还包括训练中获得的权重)
* 优化器及其状态(如果有的话)(可用于从特定点恢复训练)
* 模型的训练配置(已传递编译)(如果有)
* 模型的训练配置(已传递编译)(如果有)
使用`Sequential``functional` API 创建的 Keras 模型可以直接保存到磁盘。 使用 Keras 的本机 HDF5 文件格式保存文件。 实现此目的的代码的一般形式如下:
......@@ -382,11 +382,11 @@ TensorFlow 团队尝试通过引入 Estimators 来解决此问题,Estimators
* 估计器简​​化了团队中不同开发人员之间或使用不同环境或堆栈的团队之间的共享实现。
* 程序员可以使用高级直观代码来开发高性能和前沿模型。 换句话说,程序员不必在管理低级 TensorFlow API 的复杂性上浪费时间。
* 估计器建立在`tf.keras.layers`本身上,从而简化了自定义。
* 估计器为您构建图
* 估计器为您构建图。
* 估计器提供了一个安全分布的训练循环,该循环控制如何以及何时执行以下操作:
* 建立图
* 初始化变量
* 加载数据
* 加载数据
* 处理异常
* 创建检查点文件并从故障中恢复
* 为 TensorBoard 保存摘要
......
......@@ -117,7 +117,7 @@ for element in dataset:
* 从源创建:
* 来自内存中的`numpy` / `tensorflow`对象
* 使用`TFRecords`磁盘
* 使用`TFRecords`来自磁盘
* 将转换应用于现有数据集:
* 从一个或多个数据集构造一个数据集。 这将在“数据集转换”部分中更详细地说明。
......@@ -408,9 +408,9 @@ TF 2.0 中创建输入数据管道的一个主要区别在于其简单性。 TF
为了运行基于 CIFAR10 的端到端示例,您需要从[这里](https://www.cs.toronto.edu/~kriz/cifar.html)下载必要的数据。 该数据集摘自[《从微小图像中学习多层特征》](https://www.cs.toronto.edu/~kriz/learning-features-2009-TR.pdf)。 该数据集包含以下信息:
* 50,000 张带有标签的图像进行训练
* 10,000 张带有标签的图像进行测试
* 10 类标签
* 50,000 张带有标签的图像用于训练
* 10,000 张带有标签的图像用于测试
* 10 类标签
下载并解压缩数据集后,您将看到一个名为`cifar-10-batches-py`的文件夹,其中包含以下文件:
......
......@@ -10,8 +10,8 @@ TensorFlow 1.x 版本强烈支持低级和中级 API,以构建机器学习模
* 比较 Keras 和`tf.keras`
* 使用`tf.keras` 2.0 创建模型
* 模型编与训练
* 定制训练逻辑
* 模型编与训练
* 自定义训练逻辑
* 分布式训练
* TensorBoard
......@@ -33,7 +33,7 @@ TensorFlow 1.x 已建议为其高级 API 集使用`tf.estimator` API,该 API
可以使用三种主要的机器学习技术来解决大多数学习问题:
* 有监督的学习借助标签数据预测标签
* 监督学习借助标签数据预测标签
* 无监督学习,对没有标签的数据进行分组和聚类
* 强化学习,其中存在一种环境,智能体可以通过该环境通过采取行动并从环境中获取反馈(奖励)来学习实现预期目标
......
......@@ -5,9 +5,9 @@
本章将涵盖以下主题:
* TF 2.0 的主要变化
* 惯用 TF 2.0 的推荐技术
* 适用于 TF 2.0 的推荐技术
* 使代码 TF 2.0 原生
* 经常问的问题
* 常见问题
* TF 2.0 的未来
# TF 2.0 的主要变化
......@@ -20,7 +20,7 @@ TF 2.0 在代码方面所做的最大更改之一就是急切执行。 TF 1.x
TF 1.x 中的`session.run()`调用与...非常相似。
# 符合 TF 2.0 的推荐技术
# 适用于 TF 2.0 的推荐技术
第一条建议涉及在 TF 2.0 中处理常规代码工作流。 TF 1.x 中常见的工作流程是使用瀑布策略,其中所有计算都布置在默认图形上。 然后,使用`session.run()`运行选定的张量。 在 TF 2.0 中,应将代码重构为较小的函数,这些函数将在需要时调用。 这些函数可以是普通的 Python 函数,但如果在另一个以`tf.function`注释的函数中调用它们,则仍可以在图形模式下运行。 这意味着`tf.function`仅应用于注释高级计算,例如模型的前向传递或单个训练步骤。
......
......@@ -4,5 +4,5 @@
本节包含以下章节:
* 第 5 章,“模型推理管道多平台部署”
* 第 5 章,“模型推理管道多平台部署”
* 第 6 章,“AIY 项目和 TensorFlow Lite”
\ No newline at end of file
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册