提交 bb51a5d9 编写于 作者: 片刻小哥哥's avatar 片刻小哥哥

更新目录和文件结构

上级 a9107ec1
* [安装 scikit-learn](docs/0.21.3/79.md)
* [安装 scikit-learn](0.21.3/79.md)
* 用户指南
* [1. 监督学习](docs/0.21.3/1.md)
* [1.1. 广义线性模型](docs/0.21.3/2.md?id=_11-广义线性模型)
* [1.2. 线性和二次判别分析](docs/0.21.3/3.md?id=_12-线性和二次判别分析)
* [1.3. 内核岭回归](docs/0.21.3/4.md?id=_13-内核岭回归)
* [1.4. 支持向量机](docs/0.21.3/5.md?id=_14-支持向量机)
* [1.5. 随机梯度下降](docs/0.21.3/6.md?id=_15-随机梯度下降)
* [1.6. 最近邻](docs/0.21.3/7.md?id=_16-最近邻)
* [1.7. 高斯过程](docs/0.21.3/8.md?id=_17-高斯过程)
* [1.8. 交叉分解](docs/0.21.3/9.md?id=_18-交叉分解)
* [1.9. 朴素贝叶斯](docs/0.21.3/10.md?id=_19-朴素贝叶斯)
* [1.10. 决策树](docs/0.21.3/11.md?id=_110-决策树)
* [1.11. 集成方法](docs/0.21.3/12.md?id=_111-集成方法)
* [1.12. 多类和多标签算法](docs/0.21.3/13.md?id=_112-多类和多标签算法)
* [1.13. 特征选择](docs/0.21.3/14.md?id=_113-特征选择)
* [1.14. 半监督学习](docs/0.21.3/15.md?id=_114-半监督学习)
* [1.15. 等式回归](docs/0.21.3/16.md?id=_115-等式回归)
* [1.16. 概率校准](docs/0.21.3/17.md?id=_116-概率校准)
* [1.17. 神经网络模型(有监督)](docs/0.21.3/18.md?id=_117-神经网络模型(有监督))
* [2. 无监督学习](docs/0.21.3/19.md)
* [2.1. 高斯混合模型](docs/0.21.3/20.md?id=_21-高斯混合模型)
* [2.2. 流形学习](docs/0.21.3/21.md?id=_22-流形学习)
* [2.3. 聚类](docs/0.21.3/22.md?id=_23-聚类)
* [2.4. 双聚类](docs/0.21.3/23.md?id=_24-双聚类)
* [2.5. 分解成分中的信号(矩阵分解问题)](docs/0.21.3/24.md?id=_25-分解成分中的信号(矩阵分解问题))
* [2.6. 协方差估计](docs/0.21.3/25.md?id=_26-协方差估计)
* [2.7. 新奇和异常值检测](docs/0.21.3/26.md?id=_27-新奇和异常值检测)
* [2.8. 密度估计](docs/0.21.3/27.md?id=_28-密度估计)
* [2.9. 神经网络模型(无监督)](docs/0.21.3/28.md?id=_29-神经网络模型(无监督))
* [3. 模型选择和评估](docs/0.21.3/29.md?id=_3-模型选择和评估)
* [3.1. 交叉验证:评估估算器的表现](docs/0.21.3/30.md?id=_31-交叉验证:评估估算器的表现)
* [3.2. 调整估计器的超参数](docs/0.21.3/31.md?id=_32-调整估计器的超参数)
* [3.3. 模型评估: 量化预测的质量](docs/0.21.3/32.md?id=_33-模型评估--量化预测的质量)
* [3.4. 模型持久化](docs/0.21.3/33.md?id=_34-模型持久化)
* [3.5. 验证曲线: 绘制分数以评估模型](docs/0.21.3/34.md?id=_35-验证曲线--绘制分数以评估模型)
* [4. 检验](docs/0.21.3/35.md?id=_4--检验)
* [4.1. 部分依赖图](docs/0.21.3/36.md?id=_41-部分依赖图)
* [5. 数据集转换](docs/0.21.3/37.md?id=_5-数据集转换)
* [5.1. Pipeline(管道)和 FeatureUnion(特征联合): 合并的评估器](docs/0.21.3/38.md?id=_51-pipeline(管道)和-featureunion(特征联合)--合并的评估器)
* [5.2. 特征提取](docs/0.21.3/39.md?id=_52-特征提取)
* [5.3 预处理数据](docs/0.21.3/40.md?id=_53-预处理数据)
* [5.4 缺失值插补](docs/0.21.3/41.md?id=_54-缺失值插补)
* [5.5. 无监督降维](docs/0.21.3/42.md?id=_55-无监督降维)
* [5.6. 随机投影](docs/0.21.3/43.md?id=_56-随机投影)
* [5.7. 内核近似](docs/0.21.3/44.md?id=_57-内核近似)
* [5.8. 成对的矩阵, 类别和核函数](docs/0.21.3/45.md?id=_58-成对的矩阵,-类别和核函数)
* [5.9. 预测目标 (`y`) 的转换](docs/0.21.3/46.md?id=_59-预测目标--的转换)
* [6. 数据集加载工具](docs/0.21.3/47.md?id=_6-数据集加载工具)
* [6.1. 通用数据集 API](docs/0.21.3/47.md?id=_61-通用数据集-api)
* [6.2. 玩具数据集](docs/0.21.3/47.md?id=_62-玩具数据集)
* [6.3 真实世界中的数据集](docs/0.21.3/47.md?id=_63-真实世界中的数据集)
* [6.4. 样本生成器](docs/0.21.3/47.md?id=_64-样本生成器)
* [6.5. 加载其他数据集](docs/0.21.3/47.md?id=_65-加载其他数据集)
* [7. 使用scikit-learn计算](docs/0.21.3/48.md?id=_7-使用scikit-learn计算)
* [7.1. 大规模计算的策略: 更大量的数据](docs/0.21.3/48.md?id=_71-大规模计算的策略--更大量的数据)
* [7.2. 计算性能](docs/0.21.3/48.md?id=_72-计算性能)
* [7.3. 并行性、资源管理和配置](docs/0.21.3/48.md?id=_73-并行性、资源管理和配置)
* [教程](docs/0.21.3/50.md)
* [使用 scikit-learn 介绍机器学习](docs/0.21.3/51.md)
* [关于科学数据处理的统计学习教程](docs/0.21.3/52.md)
* [机器学习: scikit-learn 中的设置以及预估对象](docs/0.21.3/53)
* [监督学习:从高维观察预测输出变量](docs/0.21.3/54)
* [模型选择:选择估计量及其参数](docs/0.21.3/55)
* [无监督学习: 寻求数据表示](docs/0.21.3/56)
* [把它们放在一起](docs/0.21.3/57)
* [寻求帮助](docs/0.21.3/58)
* [处理文本数据](docs/0.21.3/76.md)
* [选择正确的评估器(estimator.md)](docs/0.21.3/77.md)
* [外部资源,视频和谈话](docs/0.21.3/78.md)
* [1. 监督学习](0.21.3/1.md)
* [1.1. 广义线性模型](0.21.3/2.md?id=_11-广义线性模型)
* [1.2. 线性和二次判别分析](0.21.3/3.md?id=_12-线性和二次判别分析)
* [1.3. 内核岭回归](0.21.3/4.md?id=_13-内核岭回归)
* [1.4. 支持向量机](0.21.3/5.md?id=_14-支持向量机)
* [1.5. 随机梯度下降](0.21.3/6.md?id=_15-随机梯度下降)
* [1.6. 最近邻](0.21.3/7.md?id=_16-最近邻)
* [1.7. 高斯过程](0.21.3/8.md?id=_17-高斯过程)
* [1.8. 交叉分解](0.21.3/9.md?id=_18-交叉分解)
* [1.9. 朴素贝叶斯](0.21.3/10.md?id=_19-朴素贝叶斯)
* [1.10. 决策树](0.21.3/11.md?id=_110-决策树)
* [1.11. 集成方法](0.21.3/12.md?id=_111-集成方法)
* [1.12. 多类和多标签算法](0.21.3/13.md?id=_112-多类和多标签算法)
* [1.13. 特征选择](0.21.3/14.md?id=_113-特征选择)
* [1.14. 半监督学习](0.21.3/15.md?id=_114-半监督学习)
* [1.15. 等式回归](0.21.3/16.md?id=_115-等式回归)
* [1.16. 概率校准](0.21.3/17.md?id=_116-概率校准)
* [1.17. 神经网络模型(有监督)](0.21.3/18.md?id=_117-神经网络模型(有监督))
* [2. 无监督学习](0.21.3/19.md)
* [2.1. 高斯混合模型](0.21.3/20.md?id=_21-高斯混合模型)
* [2.2. 流形学习](0.21.3/21.md?id=_22-流形学习)
* [2.3. 聚类](0.21.3/22.md?id=_23-聚类)
* [2.4. 双聚类](0.21.3/23.md?id=_24-双聚类)
* [2.5. 分解成分中的信号(矩阵分解问题)](0.21.3/24.md?id=_25-分解成分中的信号(矩阵分解问题))
* [2.6. 协方差估计](0.21.3/25.md?id=_26-协方差估计)
* [2.7. 新奇和异常值检测](0.21.3/26.md?id=_27-新奇和异常值检测)
* [2.8. 密度估计](0.21.3/27.md?id=_28-密度估计)
* [2.9. 神经网络模型(无监督)](0.21.3/28.md?id=_29-神经网络模型(无监督))
* [3. 模型选择和评估](0.21.3/29.md?id=_3-模型选择和评估)
* [3.1. 交叉验证:评估估算器的表现](0.21.3/30.md?id=_31-交叉验证:评估估算器的表现)
* [3.2. 调整估计器的超参数](0.21.3/31.md?id=_32-调整估计器的超参数)
* [3.3. 模型评估: 量化预测的质量](0.21.3/32.md?id=_33-模型评估--量化预测的质量)
* [3.4. 模型持久化](0.21.3/33.md?id=_34-模型持久化)
* [3.5. 验证曲线: 绘制分数以评估模型](0.21.3/34.md?id=_35-验证曲线--绘制分数以评估模型)
* [4. 检验](0.21.3/35.md?id=_4--检验)
* [4.1. 部分依赖图](0.21.3/36.md?id=_41-部分依赖图)
* [5. 数据集转换](0.21.3/37.md?id=_5-数据集转换)
* [5.1. Pipeline(管道)和 FeatureUnion(特征联合): 合并的评估器](0.21.3/38.md?id=_51-pipeline(管道)和-featureunion(特征联合)--合并的评估器)
* [5.2. 特征提取](0.21.3/39.md?id=_52-特征提取)
* [5.3 预处理数据](0.21.3/40.md?id=_53-预处理数据)
* [5.4 缺失值插补](0.21.3/41.md?id=_54-缺失值插补)
* [5.5. 无监督降维](0.21.3/42.md?id=_55-无监督降维)
* [5.6. 随机投影](0.21.3/43.md?id=_56-随机投影)
* [5.7. 内核近似](0.21.3/44.md?id=_57-内核近似)
* [5.8. 成对的矩阵, 类别和核函数](0.21.3/45.md?id=_58-成对的矩阵,-类别和核函数)
* [5.9. 预测目标 (`y`) 的转换](0.21.3/46.md?id=_59-预测目标--的转换)
* [6. 数据集加载工具](0.21.3/47.md?id=_6-数据集加载工具)
* [6.1. 通用数据集 API](0.21.3/47.md?id=_61-通用数据集-api)
* [6.2. 玩具数据集](0.21.3/47.md?id=_62-玩具数据集)
* [6.3 真实世界中的数据集](0.21.3/47.md?id=_63-真实世界中的数据集)
* [6.4. 样本生成器](0.21.3/47.md?id=_64-样本生成器)
* [6.5. 加载其他数据集](0.21.3/47.md?id=_65-加载其他数据集)
* [7. 使用scikit-learn计算](0.21.3/48.md?id=_7-使用scikit-learn计算)
* [7.1. 大规模计算的策略: 更大量的数据](0.21.3/48.md?id=_71-大规模计算的策略--更大量的数据)
* [7.2. 计算性能](0.21.3/48.md?id=_72-计算性能)
* [7.3. 并行性、资源管理和配置](0.21.3/48.md?id=_73-并行性、资源管理和配置)
* [教程](0.21.3/50.md)
* [使用 scikit-learn 介绍机器学习](0.21.3/51.md)
* [关于科学数据处理的统计学习教程](0.21.3/52.md)
* [机器学习: scikit-learn 中的设置以及预估对象](0.21.3/53)
* [监督学习:从高维观察预测输出变量](0.21.3/54)
* [模型选择:选择估计量及其参数](0.21.3/55)
* [无监督学习: 寻求数据表示](0.21.3/56)
* [把它们放在一起](0.21.3/57)
* [寻求帮助](0.21.3/58)
* [处理文本数据](0.21.3/76.md)
* [选择正确的评估器(estimator.md)](0.21.3/77.md)
* [外部资源,视频和谈话](0.21.3/78.md)
* [API 参考](https://scikit-learn.org/stable/modules/classes.html)
* [常见问题](docs/0.21.3/63.md)
* [时光轴](docs/0.21.3/64.md)
* [常见问题](0.21.3/63.md)
* [时光轴](0.21.3/64.md)
+ [安装 scikit-learn](docs/79.md)
+ [安装 scikit-learn](79.md)
+ 用户指南
+ [1\. 监督学习](docs/1.md)
+ [1.1\. 广义线性模型](docs/2.md)
+ [1.2\. 线性和二次判别分析](docs/3.md)
+ [1.3\. 内核岭回归](docs/4.md)
+ [1.4\. 支持向量机](docs/5.md)
+ [1.5\. 随机梯度下降](docs/6.md)
+ [1.6\. 最近邻](docs/7.md)
+ [1.7\. 高斯过程](docs/8.md)
+ [1.8\. 交叉分解](docs/9.md)
+ [1.9\. 朴素贝叶斯](docs/10.md)
+ [1.10\. 决策树](docs/11.md)
+ [1.11\. 集成方法](docs/12.md)
+ [1.12\. 多类和多标签算法](docs/13.md)
+ [1.13\. 特征选择](docs/14.md)
+ [1.14\. 半监督学习](docs/15.md)
+ [1.15\. 等式回归](docs/16.md)
+ [1.16\. 概率校准](docs/17.md)
+ [1.17\. 神经网络模型(有监督)](docs/18.md)
+ [2\. 无监督学习](docs/19.md)
+ [2.1\. 高斯混合模型](docs/20.md)
+ [2.2\. 流形学习](docs/21.md)
+ [2.3\. 聚类](docs/22.md)
+ [2.4\. 双聚类](docs/23.md)
+ [2.5\. 分解成分中的信号(矩阵分解问题)](docs/24.md)
+ [2.6\. 协方差估计](docs/25.md)
+ [2.7\. 经验协方差](docs/26.md)
+ [2.8\. 收敛协方差](docs/27.md)
+ [2.9\. 稀疏逆协方差](docs/28.md)
+ [2.10\. Robust 协方差估计](docs/29.md)
+ [2.11\. 新奇和异常值检测](docs/30.md)
+ [2.12\. 密度估计](docs/31.md)
+ [2.13\. 神经网络模型(无监督)](docs/32.md)
+ [3\. 模型选择和评估](docs/33.md)
+ [3.1\. 交叉验证:评估估算器的表现](docs/34.md)
+ [3.2\. 调整估计器的超参数](docs/35.md)
+ [3.3\. 模型评估: 量化预测的质量](docs/53.md)
+ [3.4\. 模型持久化](docs/54.md)
+ [3.5\. 验证曲线: 绘制分数以评估模型](docs/55.md)
+ [4\. 数据集转换](docs/56.md)
+ [4.1\. Pipeline(管道)和 FeatureUnion(特征联合): 合并的评估器](docs/57.md)
+ [4.2\. 特征提取](docs/58.md)
+ [4.3\. 预处理数据](docs/59.md)
+ [4.4\. 无监督降维](docs/60.md)
+ [4.5\. 随机投影](docs/61.md)
+ [4.6\. 内核近似](docs/62.md)
+ [4.7\. 成对的矩阵, 类别和核函数](docs/63.md)
+ [4.8\. 预测目标 (`y`.md) 的转换](docs/64.md)
+ [5\. 数据集加载工具](docs/65.md)
+ [6\. 大规模计算的策略: 更大量的数据](docs/66.md)
+ [7\. 计算性能](docs/67.md)
+ [1\. 监督学习](1.md)
+ [1.1\. 广义线性模型](2.md)
+ [1.2\. 线性和二次判别分析](3.md)
+ [1.3\. 内核岭回归](4.md)
+ [1.4\. 支持向量机](5.md)
+ [1.5\. 随机梯度下降](6.md)
+ [1.6\. 最近邻](7.md)
+ [1.7\. 高斯过程](8.md)
+ [1.8\. 交叉分解](9.md)
+ [1.9\. 朴素贝叶斯](10.md)
+ [1.10\. 决策树](11.md)
+ [1.11\. 集成方法](12.md)
+ [1.12\. 多类和多标签算法](13.md)
+ [1.13\. 特征选择](14.md)
+ [1.14\. 半监督学习](15.md)
+ [1.15\. 等式回归](16.md)
+ [1.16\. 概率校准](17.md)
+ [1.17\. 神经网络模型(有监督)](18.md)
+ [2\. 无监督学习](19.md)
+ [2.1\. 高斯混合模型](20.md)
+ [2.2\. 流形学习](21.md)
+ [2.3\. 聚类](22.md)
+ [2.4\. 双聚类](23.md)
+ [2.5\. 分解成分中的信号(矩阵分解问题)](24.md)
+ [2.6\. 协方差估计](25.md)
+ [2.7\. 经验协方差](26.md)
+ [2.8\. 收敛协方差](27.md)
+ [2.9\. 稀疏逆协方差](28.md)
+ [2.10\. Robust 协方差估计](29.md)
+ [2.11\. 新奇和异常值检测](30.md)
+ [2.12\. 密度估计](31.md)
+ [2.13\. 神经网络模型(无监督)](32.md)
+ [3\. 模型选择和评估](33.md)
+ [3.1\. 交叉验证:评估估算器的表现](34.md)
+ [3.2\. 调整估计器的超参数](35.md)
+ [3.3\. 模型评估: 量化预测的质量](53.md)
+ [3.4\. 模型持久化](54.md)
+ [3.5\. 验证曲线: 绘制分数以评估模型](55.md)
+ [4\. 数据集转换](56.md)
+ [4.1\. Pipeline(管道)和 FeatureUnion(特征联合): 合并的评估器](57.md)
+ [4.2\. 特征提取](58.md)
+ [4.3\. 预处理数据](59.md)
+ [4.4\. 无监督降维](60.md)
+ [4.5\. 随机投影](61.md)
+ [4.6\. 内核近似](62.md)
+ [4.7\. 成对的矩阵, 类别和核函数](63.md)
+ [4.8\. 预测目标 (`y`.md) 的转换](64.md)
+ [5\. 数据集加载工具](65.md)
+ [6\. 大规模计算的策略: 更大量的数据](66.md)
+ [7\. 计算性能](67.md)
+ 教程
+ [使用 scikit-learn 介绍机器学习](docs/68.md)
+ [关于科学数据处理的统计学习教程](docs/69.md)
+ [机器学习: scikit-learn 中的设置以及预估对象](docs/70.md)
+ [监督学习:从高维观察预测输出变量](docs/71.md)
+ [模型选择:选择估计量及其参数](docs/72.md)
+ [无监督学习: 寻求数据表示](docs/73.md)
+ [把它们放在一起](docs/74.md)
+ [寻求帮助](docs/75.md)
+ [处理文本数据](docs/76.md)
+ [选择正确的评估器(estimator.md)](docs/77.md)
+ [外部资源,视频和谈话](docs/78.md)
+ [使用 scikit-learn 介绍机器学习](68.md)
+ [关于科学数据处理的统计学习教程](69.md)
+ [机器学习: scikit-learn 中的设置以及预估对象](70.md)
+ [监督学习:从高维观察预测输出变量](71.md)
+ [模型选择:选择估计量及其参数](72.md)
+ [无监督学习: 寻求数据表示](73.md)
+ [把它们放在一起](74.md)
+ [寻求帮助](75.md)
+ [处理文本数据](76.md)
+ [选择正确的评估器(estimator.md)](77.md)
+ [外部资源,视频和谈话](78.md)
+ [API 参考](https://scikit-learn.org/stable/modules/classes.html)
+ [常见问题](docs/80.md)
+ [时光轴](docs/81.md)
\ No newline at end of file
+ [常见问题](80.md)
+ [时光轴](81.md)
\ No newline at end of file
# 1. 监督学习
* [1.1 广义线性模型](docs/2.md?id=_11-广义线性模型)
* [1.1.1 普通最小二乘法](docs/2.md?id=_111-普通最小二乘法)
* [1.1.2 岭回归](docs/2.md?id=_112-岭回归)
* [1.1.3 Lasso](docs/2.md?id=_113-lasso)
* [1.1.4 多任务 Lasso](docs/2.md?id=_114-多任务-lasso)
* [1.1.5 弹性网络](docs/2.md?id=_115-弹性网络)
* [1.1.6 多任务弹性网络](docs/2.md?id=_116-多任务弹性网络)
* [1.1.7 最小角回归](docs/2.md?id=_117-最小角回归)
* [1.1.8 LARS Lasso](docs/2.md?id=_118-lars-lasso)
* [1.1.9 正交匹配追踪法(OMP)](docs/2.md?id=_119-正交匹配追踪法(omp))
* [1.1.10 贝叶斯回归](docs/2.md?id=_1110-贝叶斯回归)
* [1.1.11 logistic 回归](docs/2.md?id=_1111-logistic-回归)
* [1.1.12 随机梯度下降, SGD](docs/2.md?id=_1112-随机梯度下降,-sgd)
* [1.1.13 Perceptron(感知器)](docs/2.md?id=_1113-perceptron(感知器))
* [1.1.14 Passive Aggressive Algorithms(被动攻击算法)](docs/2.md?id=_1114-passive-aggressive-algorithms(被动攻击算法))
* [1.1.15 稳健回归(Robustness regression): 处理离群点(outliers)和模型错误](docs/2.md?id=_1115-稳健回归(robustness-regression):-处理离群点(outliers)和模型错误)
* [1.1.16 多项式回归:用基函数展开线性模型](docs/2.md?id=_1116-多项式回归:用基函数展开线性模型)
* [1.2 线性和二次判别分析](docs/3.md?id=_12-线性和二次判别分析)
* [1.2.1 使用线性判别分析来降维](docs/3.md?id=_121-使用线性判别分析来降维)
* [1.2.2 LDA 和 QDA 分类器的数学公式](docs/3.md?id=_122-lda-和-qda-分类器的数学公式)
* [1.2.3 LDA 的降维数学公式](docs/3.md?id=_123-lda-的降维数学公式)
* [1.2.4 Shrinkage(收缩)](docs/3.md?id=_124-shrinkage(收缩))
* [1.2.5 预估算法](docs/3.md?id=_125-预估算法)
* [1.3 内核岭回归](docs/4.md?id=_13-内核岭回归)
* [1.4 支持向量机](docs/5.md?id=_14-支持向量机)
* [1.4.1 分类](docs/5.md?id=_141-分类)
* [1.4.2 回归](docs/5.md?id=_142-回归)
* [1.4.3 密度估计, 异常(novelty)检测](docs/5.md?id=_143-密度估计,-异常(novelty)检测)
* [1.4.4 复杂度](docs/5.md?id=_144-复杂度)
* [1.4.5 使用诀窍](docs/5.md?id=_145-使用诀窍)
* [1.4.6 核函数](docs/5.md?id=_146-核函数)
* [1.4.7 数学公式](docs/5.md?id=_147-数学公式)
* [1.4.8 实现细节](docs/5.md?id=_148-实现细节)
* [1.5 随机梯度下降](docs/6.md?id=_15-随机梯度下降)
* [1.5.1 分类](docs/6.md?id=_151-分类)
* [1.5.2 回归](docs/6.md?id=_152-回归)
* [1.5.3 稀疏数据的随机梯度下降](docs/6.md?id=_153-稀疏数据的随机梯度下降)
* [1.5.4 复杂度](docs/6.md?id=_154-复杂度)
* [1.5.5 停止判据](docs/6.md?id=_155-停止判据)
* [1.5.6 实用小贴士](docs/6.md?id=_156-实用小贴士)
* [1.5.7 数学描述](docs/6.md?id=_157-数学描述)
* [1.5.8 实现细节](docs/6.md?id=_158-实现细节)
* [1.6 最近邻](docs/7.md?id=_16-最近邻)
* [1.6.1 无监督最近邻](docs/7.md?id=_161-无监督最近邻)
* [1.6.2 最近邻分类](docs/7.md?id=_162-最近邻分类)
* [1.6.3 最近邻回归](docs/7.md?id=_163-最近邻回归)
* [1.6.4 最近邻算法](docs/7.md?id=_164-最近邻算法)
* [1.6.5 最近质心分类](docs/7.md?id=_165-最近质心分类)
* [1.6.6 邻域成分分析](docs/7.md?id=_166-邻域成分分析)
* [1.7 高斯过程](docs/8.md?id=_17-高斯过程)
* [1.7.1 高斯过程回归(GPR)](docs/8.md?id=_171-高斯过程回归(gpr))
* [1.7.2 GPR 示例](docs/8.md?id=_172-gpr-示例)
* [1.7.3 高斯过程分类(GPC)](docs/8.md?id=_173-高斯过程分类(gpc))
* [1.7.4 GPC 示例](docs/8.md?id=_174-gpc-示例)
* [1.7.5 高斯过程内核](docs/8.md?id=_175-高斯过程内核)
* [1.8 交叉分解](docs/9.md?id=_18-交叉分解)
* [1.9 朴素贝叶斯](docs/10.md?id=_19-朴素贝叶斯)
* [1.9.1 高斯朴素贝叶斯](docs/10.md?id=_191-高斯朴素贝叶斯)
* [1.9.2 多项分布朴素贝叶斯](docs/10.md?id=_192-多项分布朴素贝叶斯)
* [1.9.3 补充朴素贝叶斯](docs/10.md?id=_193-补充朴素贝叶斯)
* [1.9.4 伯努利朴素贝叶斯](docs/10.md?id=_194-伯努利朴素贝叶斯)
* [1.9.5 堆外朴素贝叶斯模型拟合](docs/10.md?id=_195-堆外朴素贝叶斯模型拟合)
* [1.10 决策树](docs/11.md?id=_110-决策树)
* [1.10.1 分类](docs/11.md?id=_1101-分类)
* [1.10.2 回归](docs/11.md?id=_1102-回归)
* [1.10.3 多值输出问题](docs/11.md?id=_1103-多值输出问题)
* [1.10.4 复杂度分析](docs/11.md?id=_1104-复杂度分析)
* [1.10.5 实际使用技巧](docs/11.md?id=_1105-实际使用技巧)
* [1.10.6 决策树算法: ID3, C4.5, C5.0 和 CART](docs/11.md?id=_1106-决策树算法:-id3,-c45,-c50-和-cart)
* [1.10.7 数学表达](docs/11.md?id=_1107-数学表达)
* [1.11 集成方法](docs/12.md?id=_111-集成方法)
* [1.11.1 Bagging meta-estimator(Bagging 元估计器)](docs/12.md?id=_1111-bagging-meta-estimator(bagging-元估计器))
* [1.11.2 由随机树组成的森林](docs/12.md?id=_1112-由随机树组成的森林)
* [1.11.3 AdaBoost](docs/12.md?id=_1113-adaboost)
* [1.11.4 Gradient Tree Boosting(梯度树提升)](docs/12.md?id=_1114-gradient-tree-boosting(梯度树提升))
* [1.11.5 Voting Classifier(投票分类器)](docs/12.md?id=_1115-voting-classifier(投票分类器))
* [1.11.6. 投票回归器(Voting Regressor)](docs/12.md?id=_1116-投票回归器voting-regressor)
* [1.12 多类和多标签算法](docs/13.md?id=_112-多类和多标签算法)
* [1.12.1 多标签分类格式](docs/13.md?id=_1121-多标签分类格式)
* [1.12.2 1对其余](docs/13.md?id=_1122-1对其余)
* [1.12.3 1对1](docs/13.md?id=_1123-1对1)
* [1.12.4 误差校正输出代码](docs/13.md?id=_1124-误差校正输出代码)
* [1.12.5 多输出回归](docs/13.md?id=_1125-多输出回归)
* [1.12.6 多输出分类](docs/13.md?id=_1126-多输出分类)
* [1.12.7 链式分类器](docs/13.md?id=_1127-链式分类器)
* [1.13 特征选择](docs/14.md?id=_113-特征选择)
* [1.13.1 移除低方差特征](docs/14.md?id=_1131-移除低方差特征)
* [1.13.2 单变量特征选择](docs/14.md?id=_1132-单变量特征选择)
* [1.13.3 递归式特征消除](docs/14.md?id=_1133-递归式特征消除)
* [1.13.4 使用 SelectFromModel 选取特征](docs/14.md?id=_1134-使用-selectfrommodel-选取特征)
* [1.13.5 特征选取作为 pipeline(管道)的一部分](docs/14.md?id=_1135-特征选取作为-pipeline(管道)的一部分)
* [1.14 半监督学习](docs/15.md?id=_114-半监督学习)
* [1.14.1 标签传播](docs/15.md?id=_1141-标签传播)
* [1.15 等式回归](docs/16.md?id=_115-等式回归)
* [1.16 概率校准](docs/17.md?id=_116-概率校准)
* [1.17 神经网络模型(有监督)](docs/18.md?id=_117-神经网络模型(有监督))
* [1.17.1 多层感知器](docs/18.md?id=_1171-多层感知器)
* [1.17.2 分类](docs/18.md?id=_1172-分类)
* [1.17.3 回归](docs/18.md?id=_1173-回归)
* [1.17.4 正则化](docs/18.md?id=_1174-正则化)
* [1.17.5 算法](docs/18.md?id=_1175-算法)
* [1.17.6 复杂度](docs/18.md?id=_1176-复杂度)
* [1.17.7 数学公式](docs/18.md?id=_1177-数学公式)
* [1.17.8 实用技巧](docs/18.md?id=_1178-实用技巧)
* [1.17.9 使用 warm_start 的更多控制](docs/18.md?id=_1179-使用-warm_start-的更多控制)
* [1.1 广义线性模型](2.md?id=_11-广义线性模型)
* [1.1.1 普通最小二乘法](2.md?id=_111-普通最小二乘法)
* [1.1.2 岭回归](2.md?id=_112-岭回归)
* [1.1.3 Lasso](2.md?id=_113-lasso)
* [1.1.4 多任务 Lasso](2.md?id=_114-多任务-lasso)
* [1.1.5 弹性网络](2.md?id=_115-弹性网络)
* [1.1.6 多任务弹性网络](2.md?id=_116-多任务弹性网络)
* [1.1.7 最小角回归](2.md?id=_117-最小角回归)
* [1.1.8 LARS Lasso](2.md?id=_118-lars-lasso)
* [1.1.9 正交匹配追踪法(OMP)](2.md?id=_119-正交匹配追踪法(omp))
* [1.1.10 贝叶斯回归](2.md?id=_1110-贝叶斯回归)
* [1.1.11 logistic 回归](2.md?id=_1111-logistic-回归)
* [1.1.12 随机梯度下降, SGD](2.md?id=_1112-随机梯度下降,-sgd)
* [1.1.13 Perceptron(感知器)](2.md?id=_1113-perceptron(感知器))
* [1.1.14 Passive Aggressive Algorithms(被动攻击算法)](2.md?id=_1114-passive-aggressive-algorithms(被动攻击算法))
* [1.1.15 稳健回归(Robustness regression): 处理离群点(outliers)和模型错误](2.md?id=_1115-稳健回归(robustness-regression):-处理离群点(outliers)和模型错误)
* [1.1.16 多项式回归:用基函数展开线性模型](2.md?id=_1116-多项式回归:用基函数展开线性模型)
* [1.2 线性和二次判别分析](3.md?id=_12-线性和二次判别分析)
* [1.2.1 使用线性判别分析来降维](3.md?id=_121-使用线性判别分析来降维)
* [1.2.2 LDA 和 QDA 分类器的数学公式](3.md?id=_122-lda-和-qda-分类器的数学公式)
* [1.2.3 LDA 的降维数学公式](3.md?id=_123-lda-的降维数学公式)
* [1.2.4 Shrinkage(收缩)](3.md?id=_124-shrinkage(收缩))
* [1.2.5 预估算法](3.md?id=_125-预估算法)
* [1.3 内核岭回归](4.md?id=_13-内核岭回归)
* [1.4 支持向量机](5.md?id=_14-支持向量机)
* [1.4.1 分类](5.md?id=_141-分类)
* [1.4.2 回归](5.md?id=_142-回归)
* [1.4.3 密度估计, 异常(novelty)检测](5.md?id=_143-密度估计,-异常(novelty)检测)
* [1.4.4 复杂度](5.md?id=_144-复杂度)
* [1.4.5 使用诀窍](5.md?id=_145-使用诀窍)
* [1.4.6 核函数](5.md?id=_146-核函数)
* [1.4.7 数学公式](5.md?id=_147-数学公式)
* [1.4.8 实现细节](5.md?id=_148-实现细节)
* [1.5 随机梯度下降](6.md?id=_15-随机梯度下降)
* [1.5.1 分类](6.md?id=_151-分类)
* [1.5.2 回归](6.md?id=_152-回归)
* [1.5.3 稀疏数据的随机梯度下降](6.md?id=_153-稀疏数据的随机梯度下降)
* [1.5.4 复杂度](6.md?id=_154-复杂度)
* [1.5.5 停止判据](6.md?id=_155-停止判据)
* [1.5.6 实用小贴士](6.md?id=_156-实用小贴士)
* [1.5.7 数学描述](6.md?id=_157-数学描述)
* [1.5.8 实现细节](6.md?id=_158-实现细节)
* [1.6 最近邻](7.md?id=_16-最近邻)
* [1.6.1 无监督最近邻](7.md?id=_161-无监督最近邻)
* [1.6.2 最近邻分类](7.md?id=_162-最近邻分类)
* [1.6.3 最近邻回归](7.md?id=_163-最近邻回归)
* [1.6.4 最近邻算法](7.md?id=_164-最近邻算法)
* [1.6.5 最近质心分类](7.md?id=_165-最近质心分类)
* [1.6.6 邻域成分分析](7.md?id=_166-邻域成分分析)
* [1.7 高斯过程](8.md?id=_17-高斯过程)
* [1.7.1 高斯过程回归(GPR)](8.md?id=_171-高斯过程回归(gpr))
* [1.7.2 GPR 示例](8.md?id=_172-gpr-示例)
* [1.7.3 高斯过程分类(GPC)](8.md?id=_173-高斯过程分类(gpc))
* [1.7.4 GPC 示例](8.md?id=_174-gpc-示例)
* [1.7.5 高斯过程内核](8.md?id=_175-高斯过程内核)
* [1.8 交叉分解](9.md?id=_18-交叉分解)
* [1.9 朴素贝叶斯](10.md?id=_19-朴素贝叶斯)
* [1.9.1 高斯朴素贝叶斯](10.md?id=_191-高斯朴素贝叶斯)
* [1.9.2 多项分布朴素贝叶斯](10.md?id=_192-多项分布朴素贝叶斯)
* [1.9.3 补充朴素贝叶斯](10.md?id=_193-补充朴素贝叶斯)
* [1.9.4 伯努利朴素贝叶斯](10.md?id=_194-伯努利朴素贝叶斯)
* [1.9.5 堆外朴素贝叶斯模型拟合](10.md?id=_195-堆外朴素贝叶斯模型拟合)
* [1.10 决策树](11.md?id=_110-决策树)
* [1.10.1 分类](11.md?id=_1101-分类)
* [1.10.2 回归](11.md?id=_1102-回归)
* [1.10.3 多值输出问题](11.md?id=_1103-多值输出问题)
* [1.10.4 复杂度分析](11.md?id=_1104-复杂度分析)
* [1.10.5 实际使用技巧](11.md?id=_1105-实际使用技巧)
* [1.10.6 决策树算法: ID3, C4.5, C5.0 和 CART](11.md?id=_1106-决策树算法:-id3,-c45,-c50-和-cart)
* [1.10.7 数学表达](11.md?id=_1107-数学表达)
* [1.11 集成方法](12.md?id=_111-集成方法)
* [1.11.1 Bagging meta-estimator(Bagging 元估计器)](12.md?id=_1111-bagging-meta-estimator(bagging-元估计器))
* [1.11.2 由随机树组成的森林](12.md?id=_1112-由随机树组成的森林)
* [1.11.3 AdaBoost](12.md?id=_1113-adaboost)
* [1.11.4 Gradient Tree Boosting(梯度树提升)](12.md?id=_1114-gradient-tree-boosting(梯度树提升))
* [1.11.5 Voting Classifier(投票分类器)](12.md?id=_1115-voting-classifier(投票分类器))
* [1.11.6. 投票回归器(Voting Regressor)](12.md?id=_1116-投票回归器voting-regressor)
* [1.12 多类和多标签算法](13.md?id=_112-多类和多标签算法)
* [1.12.1 多标签分类格式](13.md?id=_1121-多标签分类格式)
* [1.12.2 1对其余](13.md?id=_1122-1对其余)
* [1.12.3 1对1](13.md?id=_1123-1对1)
* [1.12.4 误差校正输出代码](13.md?id=_1124-误差校正输出代码)
* [1.12.5 多输出回归](13.md?id=_1125-多输出回归)
* [1.12.6 多输出分类](13.md?id=_1126-多输出分类)
* [1.12.7 链式分类器](13.md?id=_1127-链式分类器)
* [1.13 特征选择](14.md?id=_113-特征选择)
* [1.13.1 移除低方差特征](14.md?id=_1131-移除低方差特征)
* [1.13.2 单变量特征选择](14.md?id=_1132-单变量特征选择)
* [1.13.3 递归式特征消除](14.md?id=_1133-递归式特征消除)
* [1.13.4 使用 SelectFromModel 选取特征](14.md?id=_1134-使用-selectfrommodel-选取特征)
* [1.13.5 特征选取作为 pipeline(管道)的一部分](14.md?id=_1135-特征选取作为-pipeline(管道)的一部分)
* [1.14 半监督学习](15.md?id=_114-半监督学习)
* [1.14.1 标签传播](15.md?id=_1141-标签传播)
* [1.15 等式回归](16.md?id=_115-等式回归)
* [1.16 概率校准](17.md?id=_116-概率校准)
* [1.17 神经网络模型(有监督)](18.md?id=_117-神经网络模型(有监督))
* [1.17.1 多层感知器](18.md?id=_1171-多层感知器)
* [1.17.2 分类](18.md?id=_1172-分类)
* [1.17.3 回归](18.md?id=_1173-回归)
* [1.17.4 正则化](18.md?id=_1174-正则化)
* [1.17.5 算法](18.md?id=_1175-算法)
* [1.17.6 复杂度](18.md?id=_1176-复杂度)
* [1.17.7 数学公式](18.md?id=_1177-数学公式)
* [1.17.8 实用技巧](18.md?id=_1178-实用技巧)
* [1.17.9 使用 warm_start 的更多控制](18.md?id=_1179-使用-warm_start-的更多控制)
......@@ -110,6 +110,6 @@ Number of mislabeled points out of a total 150 points : 6
`fit` 方法不同,首次调用 `partial_fit` 方法需要传递一个所有期望的类标签的列表。
对于 scikit-learn 中可用方案的概览,另见 [out-of-core learning](docs/66?id=_71-使用外核学习实例进行拓展) 文档。
对于 scikit-learn 中可用方案的概览,另见 [out-of-core learning](66?id=_71-使用外核学习实例进行拓展) 文档。
> 注意:所有朴素贝叶斯模型调用 `partial_fit` 都会引入一些计算开销。推荐让数据快越大越好,其大小与 RAM 中可用内存大小相同。
......@@ -146,7 +146,7 @@ MLP 使用 [Stochastic Gradient Descent(随机梯度下降)(SGD)](https://en
其中 ![\eta](img/fe1d79339349f9b6263e123094ffce7b.jpg) 是控制训练过程参数更新步长的学习率(learning rate)。 ![Loss](img/16622481c2bbb001363e20660b549ae9.jpg) 是损失函数(loss function)。
更多细节可以在这个文档中找到 [SGD](docs/6)
更多细节可以在这个文档中找到 [SGD](6)
Adam 类似于 SGD,因为它是 stochastic optimizer (随机优化器),但它可以根据低阶矩的自适应估计自动调整参数更新的量。
......
# 2. 无监督学习
* [2.1 高斯混合模型](docs/20.md?id=_21-高斯混合模型)
* [2.1.1 高斯混合](docs/20.md?id=_211-高斯混合)
* [2.1.1.1 优缺点](docs/20.md?id=_2111-优缺点-gaussianmixture)
* [2.1.1.1.1 优点](docs/20.md?id=_21111-优点)
* [2.1.1.1.2 缺点](docs/20.md?id=_21112-缺点)
* [2.1.1.2 选择经典高斯混合模型中分量的个数](docs/20.md?id=_2112-选择经典高斯混合模型中分量的个数)
* [2.1.1.3 估计算法期望最大化(EM)](docs/20.md?id=_2113-估计算法期望最大化(em))
* [2.1.2 变分贝叶斯高斯混合](docs/20.md?id=_212-变分贝叶斯高斯混合)
* [2.1.2.1 估计算法: 变分推断(variational inference)](docs/20.md?id=_2121-估计算法:-变分推断(variational-inference))
* [2.1.2.2. BayesianGaussianMixture下的变分推理的优缺点](docs/20.md?id=_2122-bayesiangaussianmixture-下的变分推理的优缺点)
* [2.1.2.2.1 优点](docs/20.md?id=_21221-优点)
* [2.1.2.2.2 缺点](docs/20.md?id=_21222-缺点)
* [2.1.2.3 The Dirichlet Process(狄利克雷过程)](docs/20.md?id=_2123-the-dirichlet-process(狄利克雷过程))
* [2.2 流形学习](docs/21.md?id=_22-流形学习)
* [2.2.1 介绍](docs/21.md?id=_221-介绍)
* [2.2.2 Isomap](docs/21.md?id=_222-isomap)
* [2.2.2.1 复杂度](docs/21.md?id=_2221-复杂度)
* [2.2.3 局部线性嵌入](docs/21.md?id=_223-局部线性嵌入)
* [2.2.3.1 复杂度](docs/21.md?id=_2231-复杂度)
* [2.2.4 改进型局部线性嵌入(MLLE)](docs/21.md?id=_224-改进型局部线性嵌入(mlle))
* [2.2.4.1 复杂度](docs/21.md?id=_2241-复杂度)
* [2.2.5 黑塞特征映射(HE)](docs/21.md?id=_225-黑塞特征映射(he))
* [2.2.5.1 复杂度](docs/21.md?id=_2251-复杂度)
* [2.2.6 谱嵌入](docs/21.md?id=_226-谱嵌入)
* [2.2.6.1 复杂度](docs/21.md?id=_2261-复杂度)
* [2.2.7 局部切空间对齐(LTSA)](docs/21.md?id=_227-局部切空间对齐(ltsa))
* [2.2.7.1 复杂度](docs/21.md?id=_2271-复杂度)
* [2.2.8 多维尺度分析(MDS)](docs/21.md?id=_228-多维尺度分析(mds))
* [2.2.8.1 度量 MDS](docs/21.md?id=_2281-度量-mds)
* [2.2.8.2 非度量 MDS](docs/21.md?id=_2282-非度量-mds)
* [2.2.9 t 分布随机邻域嵌入(t-SNE)](docs/21.md?id=_229-t-分布随机邻域嵌入(t-sne))
* [2.2.9.1 优化 t-SNE](docs/21.md?id=_2291-优化-t-sne)
* [2.2.9.2 Barnes-Hut t-SNE](docs/21.md?id=_2292-barnes-hut-t-sne)
* [2.2.10 实用技巧](docs/21.md?id=_2210-实用技巧)
* [2.3 聚类](docs/22.md?id=_23-聚类)
* [2.3.1 聚类方法概述](docs/22.md?id=_231-聚类方法概述)
* [2.3.2 K-means](docs/22.md?id=_232-k-means)
* [2.3.2.1 小批量 K-Means](docs/22.md?id=_2321-小批量-k-means)
* [2.3.3 Affinity Propagation](docs/22.md?id=_233-affinity-propagation)
* [2.3.4 Mean Shift](docs/22.md?id=_234-mean-shift)
* [2.3.5 Spectral clustering](docs/22.md?id=_235-spectral-clustering)
* [2.3.5.1 不同的标记分配策略](docs/22.md?id=_2351-不同的标记分配策略)
* [2.3.5.2 谱聚类用于图聚类问题](docs/22.md?id=_2352-谱聚类用于图聚类问题)
* [2.3.6 层次聚类](docs/22.md?id=_236-层次聚类)
* [2.3.6.1 不同连接类型: Ward, complete and average linkage](docs/22.md?id=_2361-不同连接类型:-ward,-complete-and-average-linkage)
* [2.3.6.2 添加连接约束](docs/22.md?id=_2362-添加连接约束)
* [2.3.6.3 Varying the metric](docs/22.md?id=_2363-varying-the-metric)
* [2.3.7 DBSCAN](docs/22.md?id=_237-dbscan)
* [2.3.8 OPTICS](docs/22.md?id=_238-optics)
* [2.3.9 Birch](docs/22.md?id=_239-birch)
* [2.3.10 聚类性能度量](docs/22.md?id=_2310-聚类性能度量)
* [2.3.10.1 调整后的 Rand 指数](docs/22.md?id=_23101-调整后的-rand-指数)
* [2.3.10.1.1 优点](docs/22.md?id=_231011-优点)
* [2.3.10.1.2 缺点](docs/22.md?id=_231012-缺点)
* [2.3.10.1.3 数学表达](docs/22.md?id=_231013-数学表达)
* [2.3.10.2 基于 Mutual Information (互信息)的分数](docs/22.md?id=_23102-基于-mutual-information-(互信息)的分数)
* [2.3.10.2.1 优点](docs/22.md?id=_231021-优点)
* [2.3.10.2.2 缺点](docs/22.md?id=_231022-缺点)
* [2.3.10.2.3 数学公式](docs/22.md?id=_231023-数学公式)
* [2.3.10.3 同质性,完整性和 V-measure](docs/22.md?id=_23103-同质性,完整性和-v-measure)
* [2.3.10.3.1 优点](docs/22.md?id=_231031-优点)
* [2.3.10.3.2 缺点](docs/22.md?id=_231032-缺点)
* [2.3.10.3.3 数学表达](docs/22.md?id=_231033-数学表达)
* [2.3.10.4 Fowlkes-Mallows 分数](docs/22.md?id=_23104-fowlkes-mallows-分数)
* [2.3.10.4.1 优点](docs/22.md?id=_231041-优点)
* [2.3.10.4.2 缺点](docs/22.md?id=_231042-缺点)
* [2.3.10.5 Silhouette 系数](docs/22.md?id=_23105-silhouette-系数)
* [2.3.10.5.1 优点](docs/22.md?id=_231051-优点)
* [2.3.10.5.2 缺点](docs/22.md?id=_231052-缺点)
* [2.3.10.6 Calinski-Harabaz 指数](docs/22.md?id=_23106-calinski-harabaz-指数)
* [2.3.10.6.1 优点](docs/22.md?id=_231061-优点)
* [2.3.10.6.2 缺点](docs/22.md?id=_231062-缺点)
* [2.4 双聚类](docs/23.md?id=_24-双聚类)
* [2.4.1 Spectral Co-Clustering](docs/23.md?id=_241-spectral-co-clustering)
* [2.4.1.1 数学公式](docs/23.md?id=_2411-数学公式)
* [2.4.2 Spectral Biclustering](docs/23.md?id=_242-spectral-biclustering)
* [2.4.2.1 数学表示](docs/23.md?id=_2421-数学表示)
* [2.4.3 Biclustering 评价](docs/23.md?id=_243-biclustering-评价)
* [2.5 分解成分中的信号(矩阵分解问题)](docs/24.md?id=_25-分解成分中的信号(矩阵分解问题))
* [2.5.1 主成分分析(PCA)](docs/24.md?id=_251-主成分分析(pca))
* [2.5.1.1 准确的PCA和概率解释(Exact PCA and probabilistic interpretation)](docs/24.md?id=_2511-准确的pca和概率解释(exact-pca-and-probabilistic-interpretation))
* [2.5.1.2 增量PCA (Incremental PCA)](docs/24.md?id=_2512-增量pca-incremental-pca)
* [2.5.1.3 PCA 使用随机SVD](docs/24.md?id=_2513-pca-使用随机svd)
* [2.5.1.4 核 PCA](docs/24.md?id=_2514-核-pca)
* [2.5.1.5 稀疏主成分分析 ( SparsePCA 和 MiniBatchSparsePCA )](docs/24.md?id=_2515-稀疏主成分分析--sparsepca-和-minibatchsparsepca-)
* [2.5.2 截断奇异值分解和隐语义分析](docs/24.md?id=_252-截断奇异值分解和隐语义分析)
* [2.5.3 词典学习](docs/24.md?id=_253-词典学习)
* [2.5.3.1 带有预计算词典的稀疏编码](docs/24.md?id=_2531-带有预计算词典的稀疏编码)
* [2.5.3.2 通用词典学习](docs/24.md?id=_2532-通用词典学习)
* [2.5.3.3 小批量字典学习](docs/24.md?id=_2533-小批量字典学习)
* [2.5.4 因子分析](docs/24.md?id=_254-因子分析)
* [2.5.5 独立成分分析(ICA)](docs/24.md?id=_255-独立成分分析(ica))
* [2.5.6 非负矩阵分解(NMF 或 NNMF)](docs/24.md?id=_256-非负矩阵分解nmf-或-nnmf)
* [2.5.6.1 NMF 与 Frobenius 范数](docs/24.md?id=_2561-nmf-与-frobenius-范数)
* [2.5.6.2 具有 beta-divergence 的 NMF](docs/24.md?id=_2562-具有-beta-divergence-的-nmf)
* [2.5.7 隐 Dirichlet 分配(LDA)](docs/24.md?id=_257-隐-dirichlet-分配(lda))
* [2.6 协方差估计](docs/25.md?id=_26-协方差估计)
* [2.6.1 经验协方差](docs/25.md?id=_261-经验协方差)
* [2.6.2 收敛协方差](docs/25.md?id=_262-收敛协方差)
* [2.6.2.1 基本收敛](docs/25.md?id=_2621-基本收敛)
* [2.6.2.2 Ledoit-Wolf 收敛](docs/25.md?id=_2622-ledoit-wolf-收敛)
* [2.6.2.3 Oracle 近似收缩](docs/25.md?id=_2623-oracle-近似收缩)
* [2.6.3 稀疏逆协方差](docs/25.md?id=_263-稀疏逆协方差)
* [2.6.4 Robust 协方差估计](docs/25.md?id=_264-robust-协方差估计)
* [2.6.4.1 最小协方差决定](docs/25.md?id=_2641-最小协方差决定)
* [2.7 新奇和异常值检测](docs/26.md?id=_27-新奇和异常值检测)
* [2.7.1 孤立点检测方法一览](docs/26.md?id=_271-孤立点检测方法一览)
* [2.7.2 Novelty Detection(新奇检测)](docs/26.md?id=_272-novelty-detection(新奇检测))
* [2.7.3 Outlier Detection(异常值检测)](docs/26.md?id=_273-outlier-detection(异常值检测))
* [2.7.3.1 Fitting an elliptic envelope(椭圆模型拟合)](docs/26.md?id=_2731-fitting-an-elliptic-envelope(椭圆模型拟合))
* [2.7.3.2 Isolation Forest(隔离森林)](docs/26.md?id=_2732-isolation-forest(隔离森林))
* [2.7.3.3 Local Outlier Factor(局部异常系数)](docs/26.md?id=_2733-local-outlier-factor(局部异常系数))
* [2.7.4 使用LOF进行新奇点检测](docs/26.md?id=_274-使用lof进行新奇点检测)
* [2.8 密度估计](docs/27.md?id=_28-密度估计)
* [2.8.1 密度估计: 直方图](docs/27.md?id=_281-密度估计:-直方图)
* [2.8.2 核密度估计](docs/27.md?id=_282-核密度估计)
* [2.9 神经网络模型(无监督)](docs/28.md?id=_29-神经网络模型(无监督))
* [2.9.1 限制波尔兹曼机](docs/28.md?id=_291-限制波尔兹曼机)
* [2.9.1.1 图形模型和参数化](docs/28.md?id=_2911-图形模型和参数化)
* [2.9.1.2 伯努利限制玻尔兹曼机](docs/28.md?id=_2912-伯努利限制玻尔兹曼机)
* [2.9.1.3 随机最大似然学习](docs/28.md?id=_2913-随机最大似然学习)
* [2.1 高斯混合模型](20.md?id=_21-高斯混合模型)
* [2.1.1 高斯混合](20.md?id=_211-高斯混合)
* [2.1.1.1 优缺点](20.md?id=_2111-优缺点-gaussianmixture)
* [2.1.1.1.1 优点](20.md?id=_21111-优点)
* [2.1.1.1.2 缺点](20.md?id=_21112-缺点)
* [2.1.1.2 选择经典高斯混合模型中分量的个数](20.md?id=_2112-选择经典高斯混合模型中分量的个数)
* [2.1.1.3 估计算法期望最大化(EM)](20.md?id=_2113-估计算法期望最大化(em))
* [2.1.2 变分贝叶斯高斯混合](20.md?id=_212-变分贝叶斯高斯混合)
* [2.1.2.1 估计算法: 变分推断(variational inference)](20.md?id=_2121-估计算法:-变分推断(variational-inference))
* [2.1.2.2. BayesianGaussianMixture下的变分推理的优缺点](20.md?id=_2122-bayesiangaussianmixture-下的变分推理的优缺点)
* [2.1.2.2.1 优点](20.md?id=_21221-优点)
* [2.1.2.2.2 缺点](20.md?id=_21222-缺点)
* [2.1.2.3 The Dirichlet Process(狄利克雷过程)](20.md?id=_2123-the-dirichlet-process(狄利克雷过程))
* [2.2 流形学习](21.md?id=_22-流形学习)
* [2.2.1 介绍](21.md?id=_221-介绍)
* [2.2.2 Isomap](21.md?id=_222-isomap)
* [2.2.2.1 复杂度](21.md?id=_2221-复杂度)
* [2.2.3 局部线性嵌入](21.md?id=_223-局部线性嵌入)
* [2.2.3.1 复杂度](21.md?id=_2231-复杂度)
* [2.2.4 改进型局部线性嵌入(MLLE)](21.md?id=_224-改进型局部线性嵌入(mlle))
* [2.2.4.1 复杂度](21.md?id=_2241-复杂度)
* [2.2.5 黑塞特征映射(HE)](21.md?id=_225-黑塞特征映射(he))
* [2.2.5.1 复杂度](21.md?id=_2251-复杂度)
* [2.2.6 谱嵌入](21.md?id=_226-谱嵌入)
* [2.2.6.1 复杂度](21.md?id=_2261-复杂度)
* [2.2.7 局部切空间对齐(LTSA)](21.md?id=_227-局部切空间对齐(ltsa))
* [2.2.7.1 复杂度](21.md?id=_2271-复杂度)
* [2.2.8 多维尺度分析(MDS)](21.md?id=_228-多维尺度分析(mds))
* [2.2.8.1 度量 MDS](21.md?id=_2281-度量-mds)
* [2.2.8.2 非度量 MDS](21.md?id=_2282-非度量-mds)
* [2.2.9 t 分布随机邻域嵌入(t-SNE)](21.md?id=_229-t-分布随机邻域嵌入(t-sne))
* [2.2.9.1 优化 t-SNE](21.md?id=_2291-优化-t-sne)
* [2.2.9.2 Barnes-Hut t-SNE](21.md?id=_2292-barnes-hut-t-sne)
* [2.2.10 实用技巧](21.md?id=_2210-实用技巧)
* [2.3 聚类](22.md?id=_23-聚类)
* [2.3.1 聚类方法概述](22.md?id=_231-聚类方法概述)
* [2.3.2 K-means](22.md?id=_232-k-means)
* [2.3.2.1 小批量 K-Means](22.md?id=_2321-小批量-k-means)
* [2.3.3 Affinity Propagation](22.md?id=_233-affinity-propagation)
* [2.3.4 Mean Shift](22.md?id=_234-mean-shift)
* [2.3.5 Spectral clustering](22.md?id=_235-spectral-clustering)
* [2.3.5.1 不同的标记分配策略](22.md?id=_2351-不同的标记分配策略)
* [2.3.5.2 谱聚类用于图聚类问题](22.md?id=_2352-谱聚类用于图聚类问题)
* [2.3.6 层次聚类](22.md?id=_236-层次聚类)
* [2.3.6.1 不同连接类型: Ward, complete and average linkage](22.md?id=_2361-不同连接类型:-ward,-complete-and-average-linkage)
* [2.3.6.2 添加连接约束](22.md?id=_2362-添加连接约束)
* [2.3.6.3 Varying the metric](22.md?id=_2363-varying-the-metric)
* [2.3.7 DBSCAN](22.md?id=_237-dbscan)
* [2.3.8 OPTICS](22.md?id=_238-optics)
* [2.3.9 Birch](22.md?id=_239-birch)
* [2.3.10 聚类性能度量](22.md?id=_2310-聚类性能度量)
* [2.3.10.1 调整后的 Rand 指数](22.md?id=_23101-调整后的-rand-指数)
* [2.3.10.1.1 优点](22.md?id=_231011-优点)
* [2.3.10.1.2 缺点](22.md?id=_231012-缺点)
* [2.3.10.1.3 数学表达](22.md?id=_231013-数学表达)
* [2.3.10.2 基于 Mutual Information (互信息)的分数](22.md?id=_23102-基于-mutual-information-(互信息)的分数)
* [2.3.10.2.1 优点](22.md?id=_231021-优点)
* [2.3.10.2.2 缺点](22.md?id=_231022-缺点)
* [2.3.10.2.3 数学公式](22.md?id=_231023-数学公式)
* [2.3.10.3 同质性,完整性和 V-measure](22.md?id=_23103-同质性,完整性和-v-measure)
* [2.3.10.3.1 优点](22.md?id=_231031-优点)
* [2.3.10.3.2 缺点](22.md?id=_231032-缺点)
* [2.3.10.3.3 数学表达](22.md?id=_231033-数学表达)
* [2.3.10.4 Fowlkes-Mallows 分数](22.md?id=_23104-fowlkes-mallows-分数)
* [2.3.10.4.1 优点](22.md?id=_231041-优点)
* [2.3.10.4.2 缺点](22.md?id=_231042-缺点)
* [2.3.10.5 Silhouette 系数](22.md?id=_23105-silhouette-系数)
* [2.3.10.5.1 优点](22.md?id=_231051-优点)
* [2.3.10.5.2 缺点](22.md?id=_231052-缺点)
* [2.3.10.6 Calinski-Harabaz 指数](22.md?id=_23106-calinski-harabaz-指数)
* [2.3.10.6.1 优点](22.md?id=_231061-优点)
* [2.3.10.6.2 缺点](22.md?id=_231062-缺点)
* [2.4 双聚类](23.md?id=_24-双聚类)
* [2.4.1 Spectral Co-Clustering](23.md?id=_241-spectral-co-clustering)
* [2.4.1.1 数学公式](23.md?id=_2411-数学公式)
* [2.4.2 Spectral Biclustering](23.md?id=_242-spectral-biclustering)
* [2.4.2.1 数学表示](23.md?id=_2421-数学表示)
* [2.4.3 Biclustering 评价](23.md?id=_243-biclustering-评价)
* [2.5 分解成分中的信号(矩阵分解问题)](24.md?id=_25-分解成分中的信号(矩阵分解问题))
* [2.5.1 主成分分析(PCA)](24.md?id=_251-主成分分析(pca))
* [2.5.1.1 准确的PCA和概率解释(Exact PCA and probabilistic interpretation)](24.md?id=_2511-准确的pca和概率解释(exact-pca-and-probabilistic-interpretation))
* [2.5.1.2 增量PCA (Incremental PCA)](24.md?id=_2512-增量pca-incremental-pca)
* [2.5.1.3 PCA 使用随机SVD](24.md?id=_2513-pca-使用随机svd)
* [2.5.1.4 核 PCA](24.md?id=_2514-核-pca)
* [2.5.1.5 稀疏主成分分析 ( SparsePCA 和 MiniBatchSparsePCA )](24.md?id=_2515-稀疏主成分分析--sparsepca-和-minibatchsparsepca-)
* [2.5.2 截断奇异值分解和隐语义分析](24.md?id=_252-截断奇异值分解和隐语义分析)
* [2.5.3 词典学习](24.md?id=_253-词典学习)
* [2.5.3.1 带有预计算词典的稀疏编码](24.md?id=_2531-带有预计算词典的稀疏编码)
* [2.5.3.2 通用词典学习](24.md?id=_2532-通用词典学习)
* [2.5.3.3 小批量字典学习](24.md?id=_2533-小批量字典学习)
* [2.5.4 因子分析](24.md?id=_254-因子分析)
* [2.5.5 独立成分分析(ICA)](24.md?id=_255-独立成分分析(ica))
* [2.5.6 非负矩阵分解(NMF 或 NNMF)](24.md?id=_256-非负矩阵分解nmf-或-nnmf)
* [2.5.6.1 NMF 与 Frobenius 范数](24.md?id=_2561-nmf-与-frobenius-范数)
* [2.5.6.2 具有 beta-divergence 的 NMF](24.md?id=_2562-具有-beta-divergence-的-nmf)
* [2.5.7 隐 Dirichlet 分配(LDA)](24.md?id=_257-隐-dirichlet-分配(lda))
* [2.6 协方差估计](25.md?id=_26-协方差估计)
* [2.6.1 经验协方差](25.md?id=_261-经验协方差)
* [2.6.2 收敛协方差](25.md?id=_262-收敛协方差)
* [2.6.2.1 基本收敛](25.md?id=_2621-基本收敛)
* [2.6.2.2 Ledoit-Wolf 收敛](25.md?id=_2622-ledoit-wolf-收敛)
* [2.6.2.3 Oracle 近似收缩](25.md?id=_2623-oracle-近似收缩)
* [2.6.3 稀疏逆协方差](25.md?id=_263-稀疏逆协方差)
* [2.6.4 Robust 协方差估计](25.md?id=_264-robust-协方差估计)
* [2.6.4.1 最小协方差决定](25.md?id=_2641-最小协方差决定)
* [2.7 新奇和异常值检测](26.md?id=_27-新奇和异常值检测)
* [2.7.1 孤立点检测方法一览](26.md?id=_271-孤立点检测方法一览)
* [2.7.2 Novelty Detection(新奇检测)](26.md?id=_272-novelty-detection(新奇检测))
* [2.7.3 Outlier Detection(异常值检测)](26.md?id=_273-outlier-detection(异常值检测))
* [2.7.3.1 Fitting an elliptic envelope(椭圆模型拟合)](26.md?id=_2731-fitting-an-elliptic-envelope(椭圆模型拟合))
* [2.7.3.2 Isolation Forest(隔离森林)](26.md?id=_2732-isolation-forest(隔离森林))
* [2.7.3.3 Local Outlier Factor(局部异常系数)](26.md?id=_2733-local-outlier-factor(局部异常系数))
* [2.7.4 使用LOF进行新奇点检测](26.md?id=_274-使用lof进行新奇点检测)
* [2.8 密度估计](27.md?id=_28-密度估计)
* [2.8.1 密度估计: 直方图](27.md?id=_281-密度估计:-直方图)
* [2.8.2 核密度估计](27.md?id=_282-核密度估计)
* [2.9 神经网络模型(无监督)](28.md?id=_29-神经网络模型(无监督))
* [2.9.1 限制波尔兹曼机](28.md?id=_291-限制波尔兹曼机)
* [2.9.1.1 图形模型和参数化](28.md?id=_2911-图形模型和参数化)
* [2.9.1.2 伯努利限制玻尔兹曼机](28.md?id=_2912-伯努利限制玻尔兹曼机)
* [2.9.1.3 随机最大似然学习](28.md?id=_2913-随机最大似然学习)
......@@ -136,7 +136,7 @@ array([ 0.8])
>**注意: 使用 Lasso 进行特征选择**
>
>由于 Lasso 回归产生稀疏模型,因此可以用于执行特征选择,详见 [基于 L1 的特征选取](docs/14?id=_11341-基于-l1-的特征选取) 。
>由于 Lasso 回归产生稀疏模型,因此可以用于执行特征选择,详见 [基于 L1 的特征选取](14?id=_11341-基于-l1-的特征选取) 。
下面两篇参考解释了scikit-learn坐标下降算法中使用的迭代,以及用于收敛控制的对偶间隙计算的理论基础。
......@@ -501,7 +501,7 @@ Elastic-Net正则化是L1 和 L2的组合,来使如下代价函数最小:
>**注意:利用稀疏 logistic 回归进行特征选择**
>
> 带 L1罚项的 logistic 回归 将得到稀疏模型(sparse model),相当于进行了特征选择(feature selection),详情参见 [基于 L1 的特征选取](docs/14?id=_11341-基于-l1-的特征选取)。
> 带 L1罚项的 logistic 回归 将得到稀疏模型(sparse model),相当于进行了特征选择(feature selection),详情参见 [基于 L1 的特征选取](14?id=_11341-基于-l1-的特征选取)。
[`LogisticRegressionCV`](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegressionCV.html#sklearn.linear_model.LogisticRegressionCV) 对 logistic 回归 的实现内置了交叉验证(cross-validation),可以找出最优的 `C``l1_ratio`参数 。`newton-cg``sag``saga``lbfgs` 在高维数据上更快,这是因为采用了热启动(warm-starting)。
......
......@@ -216,7 +216,7 @@ The [`AgglomerativeClustering`](https://scikit-learn.org/stable/modules/generate
>[**FeatureAgglomeration**](https://scikit-learn.org/stable/modules/generated/sklearn.cluster.FeatureAgglomeration.html#sklearn.cluster.FeatureAgglomeration "sklearn.cluster.FeatureAgglomeration")
>
> [`FeatureAgglomeration`](https://scikit-learn.org/stable/modules/generated/sklearn.cluster.FeatureAgglomeration.html#sklearn.cluster.FeatureAgglomeration "sklearn.cluster.FeatureAgglomeration") 使用 agglomerative clustering 将看上去相似的 特征组合在一起,从而减少特征的数量。这是一个降维工具, 请参照 [无监督降维](docs/60?id=_44-无监督降维)。
> [`FeatureAgglomeration`](https://scikit-learn.org/stable/modules/generated/sklearn.cluster.FeatureAgglomeration.html#sklearn.cluster.FeatureAgglomeration "sklearn.cluster.FeatureAgglomeration") 使用 agglomerative clustering 将看上去相似的 特征组合在一起,从而减少特征的数量。这是一个降维工具, 请参照 [无监督降维](60?id=_44-无监督降维)。
### 2.3.6.1. 不同连接类型: Ward, complete and average linkage
......
# 3. 模型选择和评估
* [3.1 交叉验证:评估估算器的表现](docs/30.md?id=_31-交叉验证:评估估算器的表现)
* [3.1.1 计算交叉验证的指标](docs/30.md?id=_311-计算交叉验证的指标)
* [3.1.1.1 cross_validate 函数和多度量评估](docs/30.md?id=_3111-cross_validate-函数和多度量评估)
* [3.1.1.2 通过交叉验证获取预测](docs/30.md?id=_3112-通过交叉验证获取预测)
* [3.1.2 交叉验证迭代器](docs/30.md?id=_312-交叉验证迭代器)
* [3.1.2.1 交叉验证迭代器–循环遍历数据](docs/30.md?id=_3121-交叉验证迭代器–循环遍历数据)
* [3.1.2.1.1 K 折](docs/30.md?id=_31211-k-折)
* [3.1.2.1.2 重复 K-折交叉验证](docs/30.md?id=_31212-重复-k-折交叉验证)
* [3.1.2.1.3 留一交叉验证 (LOO)](docs/30.md?id=_31213-留一交叉验证-loo)
* [3.1.2.1.4 留 P 交叉验证 (LPO)](docs/30.md?id=_31214-留-p-交叉验证-lpo)
* [3.1.2.1.5 随机排列交叉验证 a.k.a. Shuffle & Split](docs/30.md?id=_31215-随机排列交叉验证-aka-shuffle-&-split)
* [3.1.2.2 基于类标签、具有分层的交叉验证迭代器](docs/30.md?id=_3122-基于类标签、具有分层的交叉验证迭代器)
* [3.1.2.2.1 分层 k 折](docs/30.md?id=_31221-分层-k-折)
* [3.1.2.2.2 分层随机 Split](docs/30.md?id=_31222-分层随机-split)
* [3.1.2.3 用于分组数据的交叉验证迭代器](docs/30.md?id=_3123-用于分组数据的交叉验证迭代器)
* [3.1.2.3.1 组 k-fold](docs/30.md?id=_31231-组-k-fold)
* [3.1.2.3.2 留一组交叉验证](docs/30.md?id=_31232-留一组交叉验证)
* [3.1.2.3.3 留 P 组交叉验证](docs/30.md?id=_31233-留-p-组交叉验证)
* [3.1.2.3.4 Group Shuffle Split](docs/30.md?id=_31234-group-shuffle-split)
* [3.1.2.4 预定义的折叠 / 验证集](docs/30.md?id=_3124-预定义的折叠-/-验证集)
* [3.1.2.5 交叉验证在时间序列数据中应用](docs/30.md?id=_3125-交叉验证在时间序列数据中应用)
* [3.1.2.5.1 时间序列分割](docs/30.md?id=_31251-时间序列分割)
* [3.1.3 A note on shuffling](docs/30.md?id=_313-a-note-on-shuffling)
* [3.1.4 交叉验证和模型选择](docs/30.md?id=_314-交叉验证和模型选择)
* [3.2 调整估计器的超参数](docs/31.md?id=_32-调整估计器的超参数)
* [3.2.1 网格追踪法–穷尽的网格搜索](docs/31.md?id=_321-网格追踪法–穷尽的网格搜索)
* [3.2.2 随机参数优化](docs/31.md?id=_322-随机参数优化)
* [3.2.3 参数搜索技巧](docs/31.md?id=_323-参数搜索技巧)
* [3.2.3.1 指定目标度量](docs/31.md?id=_3231-指定目标度量)
* [3.2.3.2 为评估指定多个指标](docs/31.md?id=_3232-为评估指定多个指标)
* [3.2.3.3 复合估计和参数空间](docs/31.md?id=_3233-复合估计和参数空间)
* [3.2.3.4 模型选择:开发和评估](docs/31.md?id=_3234-模型选择:开发和评估)
* [3.2.3.5 并行机制](docs/31.md?id=_3235-并行机制)
* [3.2.3.6 对故障的鲁棒性](docs/31.md?id=_3236-对故障的鲁棒性)
* [3.2.4 暴力参数搜索的替代方案](docs/31.md?id=_324-暴力参数搜索的替代方案)
* [3.2.4.1 模型特定交叉验证](docs/31.md?id=_3241-模型特定交叉验证)
* [3.2.4.2 信息标准](docs/31.md?id=_3242-信息标准)
* [3.2.4.3 出袋估计](docs/31.md?id=_3243-出袋估计)
* [3.3 模型评估: 量化预测的质量](docs/32.md?id=_33-模型评估:-量化预测的质量)
* [3.3.1 `scoring` 参数: 定义模型评估规则](docs/32.md?id=_331-`scoring`-参数:-定义模型评估规则)
* [3.3.1.1 常见场景: 预定义值](docs/32.md?id=_3311-常见场景:-预定义值)
* [3.3.1.2 根据 metric 函数定义您的评分策略](docs/32.md?id=_3312-根据-metric-函数定义您的评分策略)
* [3.3.1.3 实现自己的记分对象](docs/32.md?id=_3313-实现自己的记分对象)
* [3.3.1.4 使用多个指数评估](docs/32.md?id=_3314-使用多个指数评估)
* [3.3.2 分类指标](docs/32.md?id=_332-分类指标)
* [3.3.2.1 从二分到多分类和 multilabel](docs/32.md?id=_3321-从二分到多分类和-multilabel)
* [3.3.2.2 精确度得分](docs/32.md?id=_3322-精确度得分)
* [3.3.2.3 Balanced accuracy score](docs/32.md?id=_3323-balanced-accuracy-score)
* [3.3.2.4 Cohen’s kappa](docs/32.md?id=_3324-cohen’s-kappa)
* [3.3.2.5 混淆矩阵](docs/32.md?id=_3325-混淆矩阵)
* [3.3.2.6 分类报告](docs/32.md?id=_3326-分类报告)
* [3.3.2.7 汉明损失](docs/32.md?id=_3327-汉明损失)
* [3.3.2.8 精准,召回和 F-measures](docs/32.md?id=_3328-精准,召回和-f-measures)
* [3.3.2.8.1 二分类](docs/32.md?id=_33281-二分类)
* [3.3.2.8.2 多类和多标签分类](docs/32.md?id=_33282-多类和多标签分类)
* [3.3.2.9 Jaccard 相似系数 score](docs/32.md?id=_3329-jaccard-相似系数-score)
* [3.3.2.10 Hinge loss](docs/32.md?id=_33210-hinge-loss)
* [3.3.2.11 Log 损失](docs/32.md?id=_33211-log-损失)
* [3.3.2.12 马修斯相关系数](docs/32.md?id=_33212-马修斯相关系数)
* [3.3.2.13 多标记混淆矩阵](docs/32.md?id=_33213-多标记混淆矩阵)
* [3.3.2.14 Receiver operating characteristic (ROC)](docs/32.md?id=_33214-receiver-operating-characteristic-roc)
* [3.3.2.15 零一损失](docs/32.md?id=_33215-零一损失)
* [3.3.2.16 Brier 分数损失](docs/32.md?id=_33216-brier-分数损失)
* [3.3.3 多标签排名指标](docs/32.md?id=_333-多标签排名指标)
* [3.3.3.1 覆盖误差](docs/32.md?id=_3331-覆盖误差)
* [3.3.3.2 标签排名平均精度](docs/32.md?id=_3332-标签排名平均精度)
* [3.3.3.3 排序损失](docs/32.md?id=_3333-排序损失)
* [3.3.4 回归指标](docs/32.md?id=_334-回归指标)
* [3.3.4.1 解释方差得分](docs/32.md?id=_3341-解释方差得分)
* [3.3.4.2 最大误差](docs/32.md?id=_3342-最大误差)
* [3.3.4.3 平均绝对误差](docs/32.md?id=_3343-平均绝对误差)
* [3.3.4.4 均方误差](docs/32.md?id=_3344-均方误差)
* [3.3.4.5 均方误差对数](docs/32.md?id=_3345-均方误差对数)
* [3.3.4.6 中位绝对误差](docs/32.md?id=_3346-中位绝对误差)
* [3.3.4.7 R² score, 可决系数](docs/32.md?id=_3347-r²-score,-可决系数)
* [3.3.5 聚类指标](docs/32.md?id=_335-聚类指标)
* [3.3.6 虚拟估计](docs/32.md?id=_336-虚拟估计)
* [3.4 模型持久化](docs/33.md?id=_34-模型持久化)
* [3.4.1 持久化示例](docs/33.md?id=_341-持久化示例)
* [3.4.2 安全性和可维护性的局限性](docs/33.md?id=_342-安全性和可维护性的局限性)
* [3.5 验证曲线: 绘制分数以评估模型](docs/34.md?id=_35-验证曲线:-绘制分数以评估模型)
* [3.5.1 验证曲线](docs/34.md?id=_351-验证曲线)
* [3.5.2 学习曲线](docs/34.md?id=_352-学习曲线)
* [3.1 交叉验证:评估估算器的表现](30.md?id=_31-交叉验证:评估估算器的表现)
* [3.1.1 计算交叉验证的指标](30.md?id=_311-计算交叉验证的指标)
* [3.1.1.1 cross_validate 函数和多度量评估](30.md?id=_3111-cross_validate-函数和多度量评估)
* [3.1.1.2 通过交叉验证获取预测](30.md?id=_3112-通过交叉验证获取预测)
* [3.1.2 交叉验证迭代器](30.md?id=_312-交叉验证迭代器)
* [3.1.2.1 交叉验证迭代器–循环遍历数据](30.md?id=_3121-交叉验证迭代器–循环遍历数据)
* [3.1.2.1.1 K 折](30.md?id=_31211-k-折)
* [3.1.2.1.2 重复 K-折交叉验证](30.md?id=_31212-重复-k-折交叉验证)
* [3.1.2.1.3 留一交叉验证 (LOO)](30.md?id=_31213-留一交叉验证-loo)
* [3.1.2.1.4 留 P 交叉验证 (LPO)](30.md?id=_31214-留-p-交叉验证-lpo)
* [3.1.2.1.5 随机排列交叉验证 a.k.a. Shuffle & Split](30.md?id=_31215-随机排列交叉验证-aka-shuffle-&-split)
* [3.1.2.2 基于类标签、具有分层的交叉验证迭代器](30.md?id=_3122-基于类标签、具有分层的交叉验证迭代器)
* [3.1.2.2.1 分层 k 折](30.md?id=_31221-分层-k-折)
* [3.1.2.2.2 分层随机 Split](30.md?id=_31222-分层随机-split)
* [3.1.2.3 用于分组数据的交叉验证迭代器](30.md?id=_3123-用于分组数据的交叉验证迭代器)
* [3.1.2.3.1 组 k-fold](30.md?id=_31231-组-k-fold)
* [3.1.2.3.2 留一组交叉验证](30.md?id=_31232-留一组交叉验证)
* [3.1.2.3.3 留 P 组交叉验证](30.md?id=_31233-留-p-组交叉验证)
* [3.1.2.3.4 Group Shuffle Split](30.md?id=_31234-group-shuffle-split)
* [3.1.2.4 预定义的折叠 / 验证集](30.md?id=_3124-预定义的折叠-/-验证集)
* [3.1.2.5 交叉验证在时间序列数据中应用](30.md?id=_3125-交叉验证在时间序列数据中应用)
* [3.1.2.5.1 时间序列分割](30.md?id=_31251-时间序列分割)
* [3.1.3 A note on shuffling](30.md?id=_313-a-note-on-shuffling)
* [3.1.4 交叉验证和模型选择](30.md?id=_314-交叉验证和模型选择)
* [3.2 调整估计器的超参数](31.md?id=_32-调整估计器的超参数)
* [3.2.1 网格追踪法–穷尽的网格搜索](31.md?id=_321-网格追踪法–穷尽的网格搜索)
* [3.2.2 随机参数优化](31.md?id=_322-随机参数优化)
* [3.2.3 参数搜索技巧](31.md?id=_323-参数搜索技巧)
* [3.2.3.1 指定目标度量](31.md?id=_3231-指定目标度量)
* [3.2.3.2 为评估指定多个指标](31.md?id=_3232-为评估指定多个指标)
* [3.2.3.3 复合估计和参数空间](31.md?id=_3233-复合估计和参数空间)
* [3.2.3.4 模型选择:开发和评估](31.md?id=_3234-模型选择:开发和评估)
* [3.2.3.5 并行机制](31.md?id=_3235-并行机制)
* [3.2.3.6 对故障的鲁棒性](31.md?id=_3236-对故障的鲁棒性)
* [3.2.4 暴力参数搜索的替代方案](31.md?id=_324-暴力参数搜索的替代方案)
* [3.2.4.1 模型特定交叉验证](31.md?id=_3241-模型特定交叉验证)
* [3.2.4.2 信息标准](31.md?id=_3242-信息标准)
* [3.2.4.3 出袋估计](31.md?id=_3243-出袋估计)
* [3.3 模型评估: 量化预测的质量](32.md?id=_33-模型评估:-量化预测的质量)
* [3.3.1 `scoring` 参数: 定义模型评估规则](32.md?id=_331-`scoring`-参数:-定义模型评估规则)
* [3.3.1.1 常见场景: 预定义值](32.md?id=_3311-常见场景:-预定义值)
* [3.3.1.2 根据 metric 函数定义您的评分策略](32.md?id=_3312-根据-metric-函数定义您的评分策略)
* [3.3.1.3 实现自己的记分对象](32.md?id=_3313-实现自己的记分对象)
* [3.3.1.4 使用多个指数评估](32.md?id=_3314-使用多个指数评估)
* [3.3.2 分类指标](32.md?id=_332-分类指标)
* [3.3.2.1 从二分到多分类和 multilabel](32.md?id=_3321-从二分到多分类和-multilabel)
* [3.3.2.2 精确度得分](32.md?id=_3322-精确度得分)
* [3.3.2.3 Balanced accuracy score](32.md?id=_3323-balanced-accuracy-score)
* [3.3.2.4 Cohen’s kappa](32.md?id=_3324-cohen’s-kappa)
* [3.3.2.5 混淆矩阵](32.md?id=_3325-混淆矩阵)
* [3.3.2.6 分类报告](32.md?id=_3326-分类报告)
* [3.3.2.7 汉明损失](32.md?id=_3327-汉明损失)
* [3.3.2.8 精准,召回和 F-measures](32.md?id=_3328-精准,召回和-f-measures)
* [3.3.2.8.1 二分类](32.md?id=_33281-二分类)
* [3.3.2.8.2 多类和多标签分类](32.md?id=_33282-多类和多标签分类)
* [3.3.2.9 Jaccard 相似系数 score](32.md?id=_3329-jaccard-相似系数-score)
* [3.3.2.10 Hinge loss](32.md?id=_33210-hinge-loss)
* [3.3.2.11 Log 损失](32.md?id=_33211-log-损失)
* [3.3.2.12 马修斯相关系数](32.md?id=_33212-马修斯相关系数)
* [3.3.2.13 多标记混淆矩阵](32.md?id=_33213-多标记混淆矩阵)
* [3.3.2.14 Receiver operating characteristic (ROC)](32.md?id=_33214-receiver-operating-characteristic-roc)
* [3.3.2.15 零一损失](32.md?id=_33215-零一损失)
* [3.3.2.16 Brier 分数损失](32.md?id=_33216-brier-分数损失)
* [3.3.3 多标签排名指标](32.md?id=_333-多标签排名指标)
* [3.3.3.1 覆盖误差](32.md?id=_3331-覆盖误差)
* [3.3.3.2 标签排名平均精度](32.md?id=_3332-标签排名平均精度)
* [3.3.3.3 排序损失](32.md?id=_3333-排序损失)
* [3.3.4 回归指标](32.md?id=_334-回归指标)
* [3.3.4.1 解释方差得分](32.md?id=_3341-解释方差得分)
* [3.3.4.2 最大误差](32.md?id=_3342-最大误差)
* [3.3.4.3 平均绝对误差](32.md?id=_3343-平均绝对误差)
* [3.3.4.4 均方误差](32.md?id=_3344-均方误差)
* [3.3.4.5 均方误差对数](32.md?id=_3345-均方误差对数)
* [3.3.4.6 中位绝对误差](32.md?id=_3346-中位绝对误差)
* [3.3.4.7 R² score, 可决系数](32.md?id=_3347-r²-score,-可决系数)
* [3.3.5 聚类指标](32.md?id=_335-聚类指标)
* [3.3.6 虚拟估计](32.md?id=_336-虚拟估计)
* [3.4 模型持久化](33.md?id=_34-模型持久化)
* [3.4.1 持久化示例](33.md?id=_341-持久化示例)
* [3.4.2 安全性和可维护性的局限性](33.md?id=_342-安全性和可维护性的局限性)
* [3.5 验证曲线: 绘制分数以评估模型](34.md?id=_35-验证曲线:-绘制分数以评估模型)
* [3.5.1 验证曲线](34.md?id=_351-验证曲线)
* [3.5.2 学习曲线](34.md?id=_352-学习曲线)
......@@ -7,7 +7,7 @@
翻译者:
        [@\S^R^Y/](https://github.com/apachecn/scikit-learn-doc-zh)
学习预测函数的参数,并在相同数据集上进行测试是一种错误的做法: 一个仅给出测试用例标签的模型将会获得极高的分数,但对于尚未出现过的数据它则无法预测出任何有用的信息。 这种情况称为 **overfitting(过拟合)**. 为了避免这种情况,在进行(监督)机器学习实验时,通常取出部分可利用数据作为 **test set(测试数据集)** `X_test, y_test`。需要强调的是这里说的 “experiment(实验)” 并不仅限于学术(academic),因为即使是在商业场景下机器学习也往往是从实验开始的。下面是模型训练中典型的交叉验证工作流流程图。通过[网格搜索](docs/31)可以确定最佳参数。
学习预测函数的参数,并在相同数据集上进行测试是一种错误的做法: 一个仅给出测试用例标签的模型将会获得极高的分数,但对于尚未出现过的数据它则无法预测出任何有用的信息。 这种情况称为 **overfitting(过拟合)**. 为了避免这种情况,在进行(监督)机器学习实验时,通常取出部分可利用数据作为 **test set(测试数据集)** `X_test, y_test`。需要强调的是这里说的 “experiment(实验)” 并不仅限于学术(academic),因为即使是在商业场景下机器学习也往往是从实验开始的。下面是模型训练中典型的交叉验证工作流流程图。通过[网格搜索](31)可以确定最佳参数。
![grid_search_workflow.png](img/grid_search_workflow.png)
......@@ -90,7 +90,7 @@ array([0.96..., 1. ..., 0.96..., 0.96..., 1. ])
```
详情请参阅 [scoring 参数: 定义模型评估规则](docs/33) 。 在 Iris 数据集的情形下,样本在各个目标类别之间是平衡的,因此准确度和 F1-score 几乎相等。
详情请参阅 [scoring 参数: 定义模型评估规则](33) 。 在 Iris 数据集的情形下,样本在各个目标类别之间是平衡的,因此准确度和 F1-score 几乎相等。
`cv` 参数是一个整数时, [`cross_val_score`](https://scikit-learn.org/stable/modules/generated/sklearn.model_selection.cross_val_score.html#sklearn.model_selection.cross_val_score "sklearn.model_selection.cross_val_score") 默认使用 [`KFold`](https://scikit-learn.org/stable/modules/generated/sklearn.model_selection.KFold.html#sklearn.model_selection.KFold "sklearn.model_selection.KFold")[`StratifiedKFold`](https://scikit-learn.org/stable/modules/generated/sklearn.model_selection.StratifiedKFold.html#sklearn.model_selection.StratifiedKFold "sklearn.model_selection.StratifiedKFold") 策略,后者会在估计器派生自 [`ClassifierMixin`](https://scikit-learn.org/stable/modules/generated/sklearn.base.ClassifierMixin.html#sklearn.base.ClassifierMixin "sklearn.base.ClassifierMixin") 时使用。
......@@ -564,4 +564,4 @@ TimeSeriesSplit(max_train_size=None, n_splits=3)
## 3.1.4. 交叉验证和模型选择
交叉验证迭代器可以通过网格搜索得到最优的模型超参数,从而直接用于模型的选择。 这是另一部分 [调整估计器的超参数](docs/31) 的主要内容。
交叉验证迭代器可以通过网格搜索得到最优的模型超参数,从而直接用于模型的选择。 这是另一部分 [调整估计器的超参数](31) 的主要内容。
......@@ -89,7 +89,7 @@ param_grid = [
`GridSearchCV``RandomizedSearchCV` 允许为评分参数指定多个指标。
多指标评分可以被指定为一个预先定义分数名称字符串列表或者是一个得分手名字到得分手的函数或预先定义的记分员名字的映射字典。 有关详细信息, 请参阅 [多指标评估](docs/33)
多指标评分可以被指定为一个预先定义分数名称字符串列表或者是一个得分手名字到得分手的函数或预先定义的记分员名字的映射字典。 有关详细信息, 请参阅 [多指标评估](33)
在指定多个指标时,必须将 `refit` 参数设置为要在其中找到 `best_params_`,并用于在整个数据集上构建 `best_estimator_` 的度量标准(字符串)。 如果搜索不应该 refit, 则设置 `refit=False`。在使用多个度量值时,如果将 refit 保留为默认值,不会导致结果错误。
......@@ -97,7 +97,7 @@ param_grid = [
### 3.2.3.3. 复合估计和参数空间
[管道:链式评估器](docs/57) 描述了如何使用这些工具搜索参数空间构建链式评估器。
[管道:链式评估器](57) 描述了如何使用这些工具搜索参数空间构建链式评估器。
### 3.2.3.4. 模型选择:开发和评估
......
......@@ -19,7 +19,7 @@
最后, [虚拟估计](#_336-虚拟估计) 用于获取随机预测的这些指标的基准值。
>See also:对于 “pairwise(成对)” metrics(指标),_samples(样本)_ 之间而不是 estimators (估计量)或者 predictions(预测值),请参阅 [成对的矩阵, 类别和核函数](docs/?) 部分。dr
>See also:对于 “pairwise(成对)” metrics(指标),_samples(样本)_ 之间而不是 estimators (估计量)或者 predictions(预测值),请参阅 [成对的矩阵, 类别和核函数](?) 部分。dr
## 3.3.1. `scoring` 参数: 定义模型评估规则
......
......@@ -24,7 +24,7 @@
## 3.5.1. 验证曲线
我们需要一个评分函数(参见模型评估:[模型评估: 量化预测的质量](docs/32))来验证一个模型, 例如分类器的准确性。 选择估计器的多个超参数的正确方法当然是网格搜索或类似方法 (参见调优估计的超参数 [调整估计器的超参数](docs/31) ),其选择一个或多个验证集上的分数最高的超参数。 请注意,如果我们基于验证分数优化了超参数,则验证分数就有偏差了,并且不再是一个良好的泛化估计。 为了得到正确的泛化估计,我们必须在另一个测试集上计算得分。
我们需要一个评分函数(参见模型评估:[模型评估: 量化预测的质量](32))来验证一个模型, 例如分类器的准确性。 选择估计器的多个超参数的正确方法当然是网格搜索或类似方法 (参见调优估计的超参数 [调整估计器的超参数](31) ),其选择一个或多个验证集上的分数最高的超参数。 请注意,如果我们基于验证分数优化了超参数,则验证分数就有偏差了,并且不再是一个良好的泛化估计。 为了得到正确的泛化估计,我们必须在另一个测试集上计算得分。
然而,绘制单个超参数对训练分数和验证分数的影响,有时有助于发现该估计是否因为某些超参数的值 而出现过拟合或欠拟合。
......
# 4. 检验
* [4.1 部分依赖图](docs/36.md)
* [4.1 部分依赖图](36.md)
# 5. 数据集转换
scikit-learn 提供了一个用于转换数据集的库, 它也许会 clean(清理)(请参阅 [预处理数据](docs/40.md?id=_53-预处理数据)), reduce(减少)(请参阅 [无监督降维](docs/42.md?id=_55-无监督降维)), expand(扩展)(请参阅 [内核近似](docs/44.md?id=_57-内核近似))或 generate(生成)(请参阅 [特征提取](docs/39.md?id=_52-特征提取)) feature representations(特征表示).
scikit-learn 提供了一个用于转换数据集的库, 它也许会 clean(清理)(请参阅 [预处理数据](40.md?id=_53-预处理数据)), reduce(减少)(请参阅 [无监督降维](42.md?id=_55-无监督降维)), expand(扩展)(请参阅 [内核近似](44.md?id=_57-内核近似))或 generate(生成)(请参阅 [特征提取](39.md?id=_52-特征提取)) feature representations(特征表示).
像其它预估计一样, 它们由具有 `fit` 方法的类来表示, 该方法从训练集学习模型参数(例如, 归一化的平均值和标准偏差)以及将该转换模型应用于 `transform` 方法到不可见数据. 同时 `fit_transform` 可以更方便和有效地建模与转换训练数据.
[Pipeline(管道)和 FeatureUnion(特征联合): 合并的评估器](docs/38.md?id=_51-pipeline(管道)和-featureunion(特征联合)--合并的评估器) 中 transformers(转换)使用并行的或者串联的方式合并到一起. [成对的矩阵, 类别和核函数](docs/45.md?id=_58-成对的矩阵,-类别和核函数) 涵盖将特征空间转换为 affinity matrices(亲和矩阵), 而 [预测目标 (y) 的转换](docs/46.md?id=_59-预测目标--的转换) 考虑在 scikit-learn 中使用目标空间的转换(例如. 标签分类).
[Pipeline(管道)和 FeatureUnion(特征联合): 合并的评估器](38.md?id=_51-pipeline(管道)和-featureunion(特征联合)--合并的评估器) 中 transformers(转换)使用并行的或者串联的方式合并到一起. [成对的矩阵, 类别和核函数](45.md?id=_58-成对的矩阵,-类别和核函数) 涵盖将特征空间转换为 affinity matrices(亲和矩阵), 而 [预测目标 (y) 的转换](46.md?id=_59-预测目标--的转换) 考虑在 scikit-learn 中使用目标空间的转换(例如. 标签分类).
* [5.1. Pipeline(管道)和 FeatureUnion(特征联合): 合并的评估器](docs/38.md?id=_51-pipeline(管道)和-featureunion(特征联合)--合并的评估器)
* [5.1.1. Pipeline: 链式评估器](docs/38.md?id=_511-pipeline--链式评估器)
* [5.1.2. 回归中的目标转换](docs/38.md?id=_512-回归中的目标转换)
* [5.1.3. FeatureUnion(特征联合): 复合特征空间](docs/38.md?id=_513-featureunion(特征联合)--复合特征空间)
* [5.1.4. 用于异构数据的列转换器](docs/38.md?id=_514-用于异构数据的列转换器)
* [5.2. 特征提取](docs/39.md?id=_52-特征提取)
* [5.2.1. 从字典类型加载特征](docs/39.md?id=_521-从字典类型加载特征)
* [5.2.2. 特征哈希(相当于一种降维技巧)](docs/39.md?id=_522-特征哈希(相当于一种降维技巧))
* [5.2.3. 文本特征提取](docs/39.md?id=_523-文本特征提取)
* [5.2.4. 图像特征提取](docs/39.md?id=_524-图像特征提取)
* [5.3 预处理数据](docs/40.md?id=_53-预处理数据)
* [5.3.1 标准化,也称去均值和方差按比例缩放](docs/40.md?id=_531-标准化,也称去均值和方差按比例缩放)
* [5.3.2 非线性转换](docs/40.md?id=_532-非线性转换)
* [5.3.3 归一化](docs/40.md?id=_533-归一化)
* [5.3.4 类别特征编码](docs/40.md?id=_534-类别特征编码)
* [5.3.6 缺失值补全](docs/40.md?id=_536-缺失值补全)
* [5.3.7 生成多项式特征](docs/40.md?id=_537-生成多项式特征)
* [5.3.8 自定义转换器](docs/40.md?id=_538-自定义转换器)
* [5.4 缺失值插补](docs/41.md?id=_54-缺失值插补)
* [5.4.1 单变量与多变量插补](docs/41.md?id=_541-单变量与多变量插补)
* [5.4.2 单变量插补](docs/41.md?id=_542-单变量插补)
* [5.4.3 多变量插补](docs/41.md?id=_543-多变量插补)
* [5.4.4 参考](docs/41.md?id=_544-参考)
* [5.4.5 标记缺失值](docs/41.md?id=_545-标记缺失值)
* [5.5. 无监督降维](docs/42.md?id=_55-无监督降维)
* [5.5.1. PCA: 主成份分析](docs/42.md?id=_551-pca--主成份分析)
* [5.5.2. 随机投影](docs/42.md?id=_552-随机投影)
* [5.5.3. 特征聚集](docs/42.md?id=_553-特征聚集)
* [5.6. 随机投影](docs/43.md?id=_56-随机投影)
* [5.6.1. Johnson-Lindenstrauss 辅助定理](docs/43.md?id=_561-johnson-lindenstrauss-辅助定理)
* [5.6.2. 高斯随机投影](docs/43.md?id=_562-高斯随机投影)
* [5.6.3. 稀疏随机矩阵](docs/43.md?id=_563-稀疏随机矩阵)
* [5.7. 内核近似](docs/44.md?id=_57-内核近似)
* [5.7.1. 内核近似的 Nystroem 方法](docs/44.md?id=_571-内核近似的-nystroem-方法)
* [5.7.2. 径向基函数内核](docs/44.md?id=_572-径向基函数内核)
* [5.7.3. 加性卡方核](docs/44.md?id=_573-加性卡方核)
* [5.7.4. Skewed Chi Squared Kernel (偏斜卡方核?暂译)](docs/44.md?id=_574-skewed-chi-squared-kernel-)
* [5.7.5. 数学方面的细节](docs/44.md?id=_575-数学方面的细节)
* [5.8. 成对的矩阵, 类别和核函数](docs/45.md?id=_58-成对的矩阵,-类别和核函数)
* [5.8.1. 余弦相似度](docs/45.md?id=_581-余弦相似度)
* [5.8.2. 线性核函数](docs/45.md?id=_582-线性核函数)
* [5.8.3. 多项式核函数](docs/45.md?id=_583-多项式核函数)
* [5.8.4. Sigmoid 核函数](docs/45.md?id=_584-sigmoid-核函数)
* [5.8.5. RBF 核函数](docs/45.md?id=_585-rbf-核函数)
* [5.8.6. 拉普拉斯核函数](docs/45.md?id=_586-拉普拉斯核函数)
* [5.8.7. 卡方核函数](docs/45.md?id=_587-卡方核函数)
* [5.9. 预测目标 (`y`) 的转换](docs/46.md?id=_59-预测目标--的转换)
* [5.9.1. 标签二值化](docs/46.md?id=_591-标签二值化)
* [5.9.2. 标签编码](docs/46.md?id=_592-标签编码)
* [5.1. Pipeline(管道)和 FeatureUnion(特征联合): 合并的评估器](38.md?id=_51-pipeline(管道)和-featureunion(特征联合)--合并的评估器)
* [5.1.1. Pipeline: 链式评估器](38.md?id=_511-pipeline--链式评估器)
* [5.1.2. 回归中的目标转换](38.md?id=_512-回归中的目标转换)
* [5.1.3. FeatureUnion(特征联合): 复合特征空间](38.md?id=_513-featureunion(特征联合)--复合特征空间)
* [5.1.4. 用于异构数据的列转换器](38.md?id=_514-用于异构数据的列转换器)
* [5.2. 特征提取](39.md?id=_52-特征提取)
* [5.2.1. 从字典类型加载特征](39.md?id=_521-从字典类型加载特征)
* [5.2.2. 特征哈希(相当于一种降维技巧)](39.md?id=_522-特征哈希(相当于一种降维技巧))
* [5.2.3. 文本特征提取](39.md?id=_523-文本特征提取)
* [5.2.4. 图像特征提取](39.md?id=_524-图像特征提取)
* [5.3 预处理数据](40.md?id=_53-预处理数据)
* [5.3.1 标准化,也称去均值和方差按比例缩放](40.md?id=_531-标准化,也称去均值和方差按比例缩放)
* [5.3.2 非线性转换](40.md?id=_532-非线性转换)
* [5.3.3 归一化](40.md?id=_533-归一化)
* [5.3.4 类别特征编码](40.md?id=_534-类别特征编码)
* [5.3.6 缺失值补全](40.md?id=_536-缺失值补全)
* [5.3.7 生成多项式特征](40.md?id=_537-生成多项式特征)
* [5.3.8 自定义转换器](40.md?id=_538-自定义转换器)
* [5.4 缺失值插补](41.md?id=_54-缺失值插补)
* [5.4.1 单变量与多变量插补](41.md?id=_541-单变量与多变量插补)
* [5.4.2 单变量插补](41.md?id=_542-单变量插补)
* [5.4.3 多变量插补](41.md?id=_543-多变量插补)
* [5.4.4 参考](41.md?id=_544-参考)
* [5.4.5 标记缺失值](41.md?id=_545-标记缺失值)
* [5.5. 无监督降维](42.md?id=_55-无监督降维)
* [5.5.1. PCA: 主成份分析](42.md?id=_551-pca--主成份分析)
* [5.5.2. 随机投影](42.md?id=_552-随机投影)
* [5.5.3. 特征聚集](42.md?id=_553-特征聚集)
* [5.6. 随机投影](43.md?id=_56-随机投影)
* [5.6.1. Johnson-Lindenstrauss 辅助定理](43.md?id=_561-johnson-lindenstrauss-辅助定理)
* [5.6.2. 高斯随机投影](43.md?id=_562-高斯随机投影)
* [5.6.3. 稀疏随机矩阵](43.md?id=_563-稀疏随机矩阵)
* [5.7. 内核近似](44.md?id=_57-内核近似)
* [5.7.1. 内核近似的 Nystroem 方法](44.md?id=_571-内核近似的-nystroem-方法)
* [5.7.2. 径向基函数内核](44.md?id=_572-径向基函数内核)
* [5.7.3. 加性卡方核](44.md?id=_573-加性卡方核)
* [5.7.4. Skewed Chi Squared Kernel (偏斜卡方核?暂译)](44.md?id=_574-skewed-chi-squared-kernel-)
* [5.7.5. 数学方面的细节](44.md?id=_575-数学方面的细节)
* [5.8. 成对的矩阵, 类别和核函数](45.md?id=_58-成对的矩阵,-类别和核函数)
* [5.8.1. 余弦相似度](45.md?id=_581-余弦相似度)
* [5.8.2. 线性核函数](45.md?id=_582-线性核函数)
* [5.8.3. 多项式核函数](45.md?id=_583-多项式核函数)
* [5.8.4. Sigmoid 核函数](45.md?id=_584-sigmoid-核函数)
* [5.8.5. RBF 核函数](45.md?id=_585-rbf-核函数)
* [5.8.6. 拉普拉斯核函数](45.md?id=_586-拉普拉斯核函数)
* [5.8.7. 卡方核函数](45.md?id=_587-卡方核函数)
* [5.9. 预测目标 (`y`) 的转换](46.md?id=_59-预测目标--的转换)
* [5.9.1. 标签二值化](46.md?id=_591-标签二值化)
* [5.9.2. 标签编码](46.md?id=_592-标签编码)
......@@ -8,7 +8,7 @@
模块 [`sklearn.feature_extraction`](classes.html#module-sklearn.feature_extraction "sklearn.feature_extraction") 可用于提取符合机器学习算法支持的特征,比如文本和图片。
>**注意**
>特征特征提取与[特征选择](docs/14.md?id=_113-特征选择)有很大的不同:前者包括将任意数据(如文本或图像)转换为可用于机器学习的数值特征。后者是将这些特征应用到机器学习中。
>特征特征提取与[特征选择](14.md?id=_113-特征选择)有很大的不同:前者包括将任意数据(如文本或图像)转换为可用于机器学习的数值特征。后者是将这些特征应用到机器学习中。
## 5.2.1. 从字典类型加载特征
......
......@@ -402,7 +402,7 @@ OneHotEncoder(categorical_features=None, categories=None, drop=None,
>>> enc.transform([['female', 'from Asia', 'uses Chrome']]).toarray()
array([[1., 0., 0., 0., 0., 0.]])
```
还可以使用`drop`参数将每个列编码为n_categories-1列,而不是n_categories列。此参数允许用户为要删除的每个特征指定类别。这对于避免某些分类器中输入矩阵的共线性是有用的。例如,当使用非正则化回归([线性回归](docs/2))时,这种功能是有用的,因为共线性会导致协方差矩阵是不可逆的。当这个参数不是None时,`handle_unknown`必须设置为error:
还可以使用`drop`参数将每个列编码为n_categories-1列,而不是n_categories列。此参数允许用户为要删除的每个特征指定类别。这对于避免某些分类器中输入矩阵的共线性是有用的。例如,当使用非正则化回归([线性回归](2))时,这种功能是有用的,因为共线性会导致协方差矩阵是不可逆的。当这个参数不是None时,`handle_unknown`必须设置为error:
```py
>>> X = [['male', 'from US', 'uses Safari'], ['female', 'from Europe', 'uses Firefox']]
>>> drop_enc = preprocessing.OneHotEncoder(drop='first').fit(X)
......@@ -412,7 +412,7 @@ array([[1., 0., 0., 0., 0., 0.]])
array([[1., 1., 1.],
[0., 0., 0.]])
```
标称型特征有时是用字典来表示的,而不是标量,具体请参阅[从字典中加载特征](docs/39?id=_521-从字典类型加载特征)
标称型特征有时是用字典来表示的,而不是标量,具体请参阅[从字典中加载特征](39?id=_521-从字典类型加载特征)
## 4.3.5 离散化
[离散化 (Discretization)](https://en.wikipedia.org/wiki/Discretization_of_continuous_features) (有些时候叫 量化(quantization) 或 装箱(binning)) 提供了将连续特征划分为离散特征值的方法。 某些具有连续特征的数据集会受益于离散化,因为 离散化可以把具有连续属性的数据集变换成只有名义属性(nominal attributes)的数据集。 (译者注: nominal attributes 其实就是 categorical features, 可以译为 名称属性,名义属性,符号属性,离散属性 等)
......@@ -495,7 +495,7 @@ array([[ 0., 0., 1.],
## 5.3.6 缺失值补全
关于缺失值补全的方法和工具的讨论,请看章节: [缺失值处理](docs/41)
关于缺失值补全的方法和工具的讨论,请看章节: [缺失值处理](41)
## 5.3.7 生成多项式特征
......
......@@ -8,18 +8,18 @@
如果你的特征数量很多, 在监督步骤之前, 可以通过无监督的步骤来减少特征. 很多的 [无监督学习](../unsupervised_learning.html#unsupervised-learning) 方法实现了一个名为 `transform` 的方法, 它可以用来降低维度. 下面我们将讨论大量使用这种模式的两个具体示例.
>**Pipelining**
>非监督数据约简和监督估计器可以链接起来。 请看 [Pipeline: 链式评估器](docs/38?id=_511-pipeline-链式评估器).
>非监督数据约简和监督估计器可以链接起来。 请看 [Pipeline: 链式评估器](38?id=_511-pipeline-链式评估器).
## 5.5.1. PCA: 主成份分析
[`decomposition.PCA`](https://scikit-learn.org/stable/modules/generated/sklearn.decomposition.PCA.html#sklearn.decomposition.PCA "sklearn.decomposition.PCA") 寻找能够捕捉原始特征的差异的特征的组合. 请参阅 [分解成分中的信号(矩阵分解问题)](docs/24?id=_25-分解成分中的信号(矩阵分解问题)).
[`decomposition.PCA`](https://scikit-learn.org/stable/modules/generated/sklearn.decomposition.PCA.html#sklearn.decomposition.PCA "sklearn.decomposition.PCA") 寻找能够捕捉原始特征的差异的特征的组合. 请参阅 [分解成分中的信号(矩阵分解问题)](24?id=_25-分解成分中的信号(矩阵分解问题)).
>**示例**
>* [Faces recognition example using eigenfaces and SVMs](https://scikit-learn.org/stable/auto_examples/applications/plot_face_recognition.html#sphx-glr-auto-examples-applications-plot-face-recognition-py)
## 5.5.2. 随机投影
模块: `random_projection` 提供了几种用于通过随机投影减少数据的工具. 请参阅文档的相关部分: [随机投影](docs/56).
模块: `random_projection` 提供了几种用于通过随机投影减少数据的工具. 请参阅文档的相关部分: [随机投影](56).
>**示例**
>* [The Johnson-Lindenstrauss bound for embedding with random projections](https://scikit-learn.org/stable/auto_examples/plot_johnson_lindenstrauss_bound.html#sphx-glr-auto-examples-plot-johnson-lindenstrauss-bound-py)
......
......@@ -13,7 +13,7 @@
由于近似嵌入的方法没有太多经验性的验证,所以建议将结果和使用精确的内核方法的结果进行比较。
也可参阅[多项式回归:用基函数展开线性模型](docs/2?id=_1116-多项式回归:用基函数展开线性模型) 用于精确的多项式变换。
也可参阅[多项式回归:用基函数展开线性模型](2?id=_1116-多项式回归:用基函数展开线性模型) 用于精确的多项式变换。
## 5.7.1. 内核近似的 Nystroem 方法
......
......@@ -6,7 +6,7 @@
翻译者:
        [@程威](https://github.com/apachecn/scikit-learn-doc-zh)
本章要介绍的这些变换器不是被用于特征的,而是只被用于变换监督学习的目标。 如果你希望变换预测目标以进行学习,但是在原始空间中评估模型,请参考[回归中的目标转换](docs/38?id=_512-回归中的目标转换)
本章要介绍的这些变换器不是被用于特征的,而是只被用于变换监督学习的目标。 如果你希望变换预测目标以进行学习,但是在原始空间中评估模型,请参考[回归中的目标转换](38?id=_512-回归中的目标转换)
## 5.9.1. 标签二值化
......
......@@ -12,7 +12,7 @@
        [@t9UhoI](https://github.com/apachecn/scikit-learn-doc-zh)
        [@Sun](https://github.com/apachecn/scikit-learn-doc-zh)
`sklearn.datasets` 包装在 [Getting Started](docs/50?id=加载示例数据集) 部分中嵌入了介绍一些小型玩具的数据集。
`sklearn.datasets` 包装在 [Getting Started](50?id=加载示例数据集) 部分中嵌入了介绍一些小型玩具的数据集。
为了在控制数据的统计特性(通常是特征的 correlation (相关性)和 informativeness (信息性))的同时评估数据集 (`n_samples``n_features`) 的规模的影响,也可以生成综合数据。
......@@ -325,6 +325,6 @@ scikit-learn使用任何存储为numpy数组或者scipy稀疏数组的数值数
* [scipy.misc.imread](https://docs.scipy.org/doc/scipy/reference/generated/scipy.misc.imread.html#scipy.misc.imread) (requires the [Pillow](https://pypi.python.org/pypi/Pillow) package)将各种图像文件格式加载为 像素灰度数据
* [scipy.io.wavfile.read](https://docs.scipy.org/doc/scipy-0.14.0/reference/generated/scipy.io.wavfile.read.html) 将WAV文件读入一个numpy数组
存储为字符串的无序(或者名字)特征(在pandas的DataFrame中很常见)需要转换为整数,当整数类别变量 被编码成独热变量([`sklearn.preprocessing.OneHotEncoder`](https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.OneHotEncoder.html#sklearn.preprocessing.OneHotEncoder "sklearn.preprocessing.OneHotEncoder"))或类似数据时,它或许可以被最好的利用。 参见[预处理数据](docs/40?id=_53-预处理数据).
存储为字符串的无序(或者名字)特征(在pandas的DataFrame中很常见)需要转换为整数,当整数类别变量 被编码成独热变量([`sklearn.preprocessing.OneHotEncoder`](https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.OneHotEncoder.html#sklearn.preprocessing.OneHotEncoder "sklearn.preprocessing.OneHotEncoder"))或类似数据时,它或许可以被最好的利用。 参见[预处理数据](40?id=_53-预处理数据).
注意:如果你要管理你的数值数据,建议使用优化后的文件格式来减少数据加载时间,例如HDF5。像 H5Py, PyTables和pandas等的各种库提供了一个Python接口,来读写该格式的数据。
......@@ -171,7 +171,7 @@ print("input sparsity ratio:", sparsity_ratio(X))
[![nusvr_model_complexity](img/1daad9ca4ebf0fe49529674b890b3df2.jpg)](https://scikit-learn.org/stable/auto_examples/applications/plot_model_complexity_influence.html)
对于 [`sklearn.ensemble`](docs/12?id=_111-集成方法) 的 trees (例如 RandomForest, GBT, ExtraTrees 等) number of trees (树的数量)及其 depth(深度)发挥着最重要的作用。Latency and throughput(延迟和吞吐量)应与树的数量呈线性关系。在这种情况下,我们直接使用 `sklearn.ensemble.gradient_boosting.GradientBoostingRegressor``n_estimators` 参数。
对于 [`sklearn.ensemble`](12?id=_111-集成方法) 的 trees (例如 RandomForest, GBT, ExtraTrees 等) number of trees (树的数量)及其 depth(深度)发挥着最重要的作用。Latency and throughput(延迟和吞吐量)应与树的数量呈线性关系。在这种情况下,我们直接使用 `sklearn.ensemble.gradient_boosting.GradientBoostingRegressor``n_estimators` 参数。
**[![gbt_model_complexity](img/7d4aae450c85e9ea83d3746485791394.jpg)](https://scikit-learn.org/stable/auto_examples/applications/plot_model_complexity_influence.html)**
......
scikit-learn 教程 0.21.x
* [使用 scikit-learn 介绍机器学习](docs/51.md)
* [机器学习:问题设置](docs/51?id=机器学习:问题设置)
* [使用 scikit-learn 介绍机器学习](51.md)
* [机器学习:问题设置](51?id=机器学习:问题设置)
* [加载示例数据集]((docs/51?id=加载示例数据集))
* [学习和预测]((docs/51?id=学习和预测))
* [模型持久化]((docs/51?id=模型持久化))
* [规定]((docs/51?id=规定))
* [关于科学数据处理的统计学习教程](docs/52.md)
* [机器学习: scikit-learn 中的设置以及预估对象](docs/53)
* [数据集](docs/53?id=数据集)
* [预估对象](docs/53?id=预估对象)
* [监督学习:从高维观察预测输出变量](docs/54)
* [最近邻和维度惩罚](docs/54?id=最近邻和维度惩罚)
* [线性模型:从回归到稀疏](docs/54?id=线性模型:从回归到稀疏)
* [支持向量机(SVMs)](docs/54?id=支持向量机svms)
* [模型选择:选择估计量及其参数](docs/55)
* [分数和交叉验证分数](docs/55?id=分数和交叉验证分数)
* [交叉验证生成器](docs/55?id=交叉验证生成器)
* [网格搜索和交叉验证估计量](docs/55?id=网格搜索和交叉验证估计量)
* [无监督学习: 寻求数据表示](docs/56)
* [聚类: 对样本数据进行分组](docs/56?id=聚类*对样本数据进行分组)
* [分解: 将一个信号转换成多个成份并且加载](docs/56?id=分解*将一个信号转换成多个成份并且加载)
* [把它们放在一起](docs/57)
* [模型管道化](docs/57?id=模型管道化)
* [用特征面进行人脸识别](docs/57?id=用特征面进行人脸识别)
* [开放性问题: 股票市场结构](docs/57?id=开放性问题*股票市场结构)
* [寻求帮助](docs/58)
* [项目邮件列表](docs/58?id=项目邮件列表)
* [机器学习从业者的 Q&A 社区](docs/58?id=机器学习从业者的*qampa*社区)
* [处理文本数据](docs/59.md)
* [教程设置](docs/59?id=教程设置)
* [加载这 20 个新闻组的数据集](docs/59?id=加载这-20-个新闻组的数据集)
* [从文本文件中提取特征](docs/59?id=从文本文件中提取特征)
* [训练分类器](docs/59?id=训练分类器)
* [构建-pipeline(管道)](docs/59?id=构建-pipeline(管道))
* [在测试集上的性能评估](docs/59?id=在测试集上的性能评估)
* [使用网格搜索进行调参](docs/59?id=使用网格搜索进行调参)
* [练习](docs/59?id=练习)
* [快速链接](docs/59?id=快速链接)
* [选择正确的评估器(estimator.md)](docs/60.md)
* [外部资源,视频和谈话](docs/61.md)
* [关于科学数据处理的统计学习教程](52.md)
* [机器学习: scikit-learn 中的设置以及预估对象](53)
* [数据集](53?id=数据集)
* [预估对象](53?id=预估对象)
* [监督学习:从高维观察预测输出变量](54)
* [最近邻和维度惩罚](54?id=最近邻和维度惩罚)
* [线性模型:从回归到稀疏](54?id=线性模型:从回归到稀疏)
* [支持向量机(SVMs)](54?id=支持向量机svms)
* [模型选择:选择估计量及其参数](55)
* [分数和交叉验证分数](55?id=分数和交叉验证分数)
* [交叉验证生成器](55?id=交叉验证生成器)
* [网格搜索和交叉验证估计量](55?id=网格搜索和交叉验证估计量)
* [无监督学习: 寻求数据表示](56)
* [聚类: 对样本数据进行分组](56?id=聚类*对样本数据进行分组)
* [分解: 将一个信号转换成多个成份并且加载](56?id=分解*将一个信号转换成多个成份并且加载)
* [把它们放在一起](57)
* [模型管道化](57?id=模型管道化)
* [用特征面进行人脸识别](57?id=用特征面进行人脸识别)
* [开放性问题: 股票市场结构](57?id=开放性问题*股票市场结构)
* [寻求帮助](58)
* [项目邮件列表](58?id=项目邮件列表)
* [机器学习从业者的 Q&A 社区](58?id=机器学习从业者的*qampa*社区)
* [处理文本数据](59.md)
* [教程设置](59?id=教程设置)
* [加载这 20 个新闻组的数据集](59?id=加载这-20-个新闻组的数据集)
* [从文本文件中提取特征](59?id=从文本文件中提取特征)
* [训练分类器](59?id=训练分类器)
* [构建-pipeline(管道)](59?id=构建-pipeline(管道))
* [在测试集上的性能评估](59?id=在测试集上的性能评估)
* [使用网格搜索进行调参](59?id=使用网格搜索进行调参)
* [练习](59?id=练习)
* [快速链接](59?id=快速链接)
* [选择正确的评估器(estimator.md)](60.md)
* [外部资源,视频和谈话](61.md)
......@@ -88,7 +88,7 @@ array([0, 1, 2, ..., 8, 9, 8])
>**从外部数据集加载**
>
>要从外部数据集加载,请参阅 [加载外部数据集](docs/47?id=_654-从外部数据集加载) 。
>要从外部数据集加载,请参阅 [加载外部数据集](47?id=_654-从外部数据集加载) 。
## 学习和预测
......@@ -106,7 +106,7 @@ array([0, 1, 2, ..., 8, 9, 8])
> **选择模型的参数**
>
>在这个例子中,我们手动设置 `gamma` 值。不过,通过使用 [网格搜索](docs/31?id=_321-网格追踪法穷尽的网格搜索) 及 [交叉验证](docs/30?id=_31-交叉验证:评估估算器的表现) 等工具,可以自动找到参数的良好值。
>在这个例子中,我们手动设置 `gamma` 值。不过,通过使用 [网格搜索](31?id=_321-网格追踪法穷尽的网格搜索) 及 [交叉验证](30?id=_31-交叉验证:评估估算器的表现) 等工具,可以自动找到参数的良好值。
我们把我们的估计器实例命名为 `clf` ,因为它是一个分类器(classifier)。它现在必须拟合模型,也就是说,它必须从模型中 _learn(学习)_ 。 这是通过将我们的训练集传递给 `fit` 方法来完成的。作为一个训练集,让我们使用数据集中除最后一张以外的所有图像。 我们用 `[:-1]` Python 语法选择这个训练集,它产生一个包含 `digits.data` 中除最后一个条目(entry)之外的所有条目的新数组
......@@ -179,7 +179,7 @@ array([0])
>
>`joblib.dump` 以及 `joblib.load` 函数也接受 file-like(类文件) 对象而不是文件名。有关 Joblib 的数据持久化的更多信息,请 [点击此处](https://pythonhosted.org/joblib/persistence.html) 。
请注意,pickle 有一些安全性和维护性问题。有关使用 scikit-learn 的模型持久化的更多详细信息,请参阅 [模型持久化](docs/33?id=_34-模型持久化) 部分。
请注意,pickle 有一些安全性和维护性问题。有关使用 scikit-learn 的模型持久化的更多详细信息,请参阅 [模型持久化](33?id=_34-模型持久化) 部分。
## 规定
......
......@@ -14,24 +14,24 @@
[](53-58)
* [机器学习: scikit-learn 中的设置以及预估对象](docs/53)
* [数据集](docs/53?id=数据集)
* [预估对象](docs/53?id=预估对象)
* [监督学习:从高维观察预测输出变量](docs/54)
* [最近邻和维度惩罚](docs/54?id=最近邻和维度惩罚)
* [线性模型:从回归到稀疏](docs/54?id=线性模型:从回归到稀疏)
* [支持向量机(SVMs)](docs/54?id=支持向量机svms)
* [模型选择:选择估计量及其参数](docs/55)
* [分数和交叉验证分数](docs/55?id=分数和交叉验证分数)
* [交叉验证生成器](docs/55?id=交叉验证生成器)
* [网格搜索和交叉验证估计量](docs/55?id=网格搜索和交叉验证估计量)
* [无监督学习: 寻求数据表示](docs/56)
* [聚类: 对样本数据进行分组](docs/56?id=聚类-对样本数据进行分组)
* [分解: 将一个信号转换成多个成份并且加载](docs/56?id=分解-将一个信号转换成多个成份并且加载)
* [把它们放在一起](docs/57)
* [模型管道化](docs/57?id=模型管道化)
* [用特征面进行人脸识别](docs/57?id=用特征面进行人脸识别)
* [开放性问题: 股票市场结构](docs/57?id=开放性问题-股票市场结构)
* [寻求帮助](docs/58)
* [项目邮件列表](docs/58?id=项目邮件列表)
* [机器学习从业者的 Q&A 社区](docs/58?id=机器学习从业者的-qampa-社区)
* [机器学习: scikit-learn 中的设置以及预估对象](53)
* [数据集](53?id=数据集)
* [预估对象](53?id=预估对象)
* [监督学习:从高维观察预测输出变量](54)
* [最近邻和维度惩罚](54?id=最近邻和维度惩罚)
* [线性模型:从回归到稀疏](54?id=线性模型:从回归到稀疏)
* [支持向量机(SVMs)](54?id=支持向量机svms)
* [模型选择:选择估计量及其参数](55)
* [分数和交叉验证分数](55?id=分数和交叉验证分数)
* [交叉验证生成器](55?id=交叉验证生成器)
* [网格搜索和交叉验证估计量](55?id=网格搜索和交叉验证估计量)
* [无监督学习: 寻求数据表示](56)
* [聚类: 对样本数据进行分组](56?id=聚类-对样本数据进行分组)
* [分解: 将一个信号转换成多个成份并且加载](56?id=分解-将一个信号转换成多个成份并且加载)
* [把它们放在一起](57)
* [模型管道化](57?id=模型管道化)
* [用特征面进行人脸识别](57?id=用特征面进行人脸识别)
* [开放性问题: 股票市场结构](57?id=开放性问题-股票市场结构)
* [寻求帮助](58)
* [项目邮件列表](58?id=项目邮件列表)
* [机器学习从业者的 Q&A 社区](58?id=机器学习从业者的-qampa-社区)
......@@ -9,7 +9,7 @@
>**监督学习解决的问题**
>
[监督学习](docs/1) 在于学习两个数据集的联系:观察数据 `X` 和我们正在尝试预测的额外变量 `y` (通常称“目标”或“标签”), 而且通常是长度为 `n_samples` 的一维数组。
[监督学习](1) 在于学习两个数据集的联系:观察数据 `X` 和我们正在尝试预测的额外变量 `y` (通常称“目标”或“标签”), 而且通常是长度为 `n_samples` 的一维数组。
>
>scikit-learn 中所有监督的[*估计量*](https://en.wikipedia.org/wiki/Estimator) 都有一个用来拟合模型的 `fit(X, y)` 方法,和根据给定的没有标签观察值 `X` 返回预测的带标签的 `y` 的 `predict(X)` 方法。
......@@ -19,7 +19,7 @@
>
>当在 scikit-learn 中进行分类时,`y` 是一个整数或字符型的向量。
>
>注:可以查看[用 scikit-learn 进行机器学习介绍](docs/51) 快速了解机器学习中的基础词汇。
>注:可以查看[用 scikit-learn 进行机器学习介绍](51) 快速了解机器学习中的基础词汇。
## 最近邻和维度惩罚
......@@ -41,7 +41,7 @@ array([0, 1, 2])
### K近邻分类器
[最近邻](https://en.wikipedia.org/wiki/K-nearest_neighbor_algorithm): 也许是最简单的分类器:给定一个新的观察值 `X_test`,用最接近的特征向量在训练集(比如,用于训练估计器的数据)找到观察值。(请看 Scikit-learn 在线学习文档的 [最近邻章节](docs/7?id=_16-最近邻) 获取更多关于这种分类器的信息)
[最近邻](https://en.wikipedia.org/wiki/K-nearest_neighbor_algorithm): 也许是最简单的分类器:给定一个新的观察值 `X_test`,用最接近的特征向量在训练集(比如,用于训练估计器的数据)找到观察值。(请看 Scikit-learn 在线学习文档的 [最近邻章节](7?id=_16-最近邻) 获取更多关于这种分类器的信息)
>**训练集和测试集**
>
......@@ -157,7 +157,7 @@ LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False)
```
高纬统计学习中的一个解决方法是 _收缩_ 回归系数到0:任何两个随机选择的观察值数据集都很可能是不相关的。这称为[岭回归](docs/2?id=_112-岭回归)
高纬统计学习中的一个解决方法是 _收缩_ 回归系数到0:任何两个随机选择的观察值数据集都很可能是不相关的。这称为[岭回归](2?id=_112-岭回归)
[![http://sklearn.apachecn.org/cn/0.19.0/_images/sphx_glr_plot_ols_ridge_variance_002.png](img/6518e8fbaaadd8a258c9a3f96b2ef42e.jpg)](https://scikit-learn.org/stable/auto_examples/linear_model/plot_ols_ridge_variance.html)
......@@ -203,7 +203,7 @@ LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False)
我们可以看到,尽管特征2在整个模型占有一个很大的系数,但是当考虑特征1时,其对 `y` 的影响就较小了。
为了提高问题的条件(比如,缓解[维度惩罚](#维度惩罚)),只选择信息特征和设置无信息时就会变得有趣,比如特征2到0。岭回归会减小他们的值,但不会减到0.另一种抑制方法,称为 [Lasso](docs/2?id=_113-lasso) (最小绝对收缩和选择算子),可以把一些系数设为0。这些方法称为 **稀疏法**,稀疏可以看作是奥卡姆剃刀的应用:_模型越简单越好_。
为了提高问题的条件(比如,缓解[维度惩罚](#维度惩罚)),只选择信息特征和设置无信息时就会变得有趣,比如特征2到0。岭回归会减小他们的值,但不会减到0.另一种抑制方法,称为 [Lasso](2?id=_113-lasso) (最小绝对收缩和选择算子),可以把一些系数设为0。这些方法称为 **稀疏法**,稀疏可以看作是奥卡姆剃刀的应用:_模型越简单越好_。
```py
>>> regr = linear_model.Lasso()
......@@ -247,7 +247,7 @@ LogisticRegression(C=100000.0, class_weight=None, dual=False,
```
这就是有名的: [`LogisticRegression`](docs/2?id=_1111-logistic-回归)
这就是有名的: [`LogisticRegression`](2?id=_1111-logistic-回归)
[![http://sklearn.apachecn.org/cn/0.19.0/_images/sphx_glr_plot_iris_logistic_001.png](img/b6305894a6f400569f3ff2b899370b54.jpg)](https://scikit-learn.org/stable/auto_examples/linear_model/plot_iris_logistic.html)
......@@ -275,7 +275,7 @@ y_digits = digits.target
### 线性 SVMs
[支持向量机](docs/5?id=_14-支持向量机) 属于判别模型家族:它们尝试通过找到样例的一个组合来构建一个两类之间最大化的平面。通过 `C` 参数进行正则化设置:`C` 的值小意味着边缘是通过分割线周围的所有观测样例进行计算得到的(更正则化);`C` 的值大意味着边缘是通过邻近分割线的观测样例计算得到的(更少正则化)。
[支持向量机](5?id=_14-支持向量机) 属于判别模型家族:它们尝试通过找到样例的一个组合来构建一个两类之间最大化的平面。通过 `C` 参数进行正则化设置:`C` 的值小意味着边缘是通过分割线周围的所有观测样例进行计算得到的(更正则化);`C` 的值大意味着边缘是通过邻近分割线的观测样例计算得到的(更少正则化)。
>例子:
>* [Plot different SVM classifiers in the iris dataset](https://scikit-learn.org/stable/auto_examples/svm/plot_iris.html#sphx-glr-auto-examples-svm-plot-iris-py)
......
......@@ -74,7 +74,7 @@ Train: [0 1 2 3] | test: [4 5]
默认情况下,估计器的 `score` 方法被用于运算个体分数。
可以参考 [metrics 模块](docs/45?id=_58-成对的矩阵-类别和核函数) 学习更多可用的评分方法。
可以参考 [metrics 模块](45?id=_58-成对的矩阵-类别和核函数) 学习更多可用的评分方法。
```py
>>> cross_val_score(svc, X_digits, y_digits, cv=k_fold, n_jobs=-1)
......
......@@ -13,7 +13,7 @@
### K-means 聚类算法
关于聚类有很多不同的聚类标准和相关算法,其中最简便的算法是 [K-means](docs/22?id=_232-k-means)
关于聚类有很多不同的聚类标准和相关算法,其中最简便的算法是 [K-means](22?id=_232-k-means)
[![http://sklearn.apachecn.org/cn/0.19.0/_images/sphx_glr_plot_cluster_iris_002.png](img/43fc8286f3bb11d7c8eb1e83e6538ac6.jpg)](https://scikit-learn.org/stable/auto_examples/cluster/plot_cluster_iris.html)
......@@ -142,7 +142,7 @@ FeatureAgglomeration(affinity='euclidean', compute_full_tree='auto',...
### 主成份分析: PCA
[主成分分析(PCA)](docs/24?id=_251-主成分分析(pca)) 将能够解释数据信息最大方差的的连续成分提取出来
[主成分分析(PCA)](24?id=_251-主成分分析(pca)) 将能够解释数据信息最大方差的的连续成分提取出来
[![pca_3d_axis](img/33a8ceddf8e3edfad259a804819c2637.jpg)](https://scikit-learn.org/stable/auto_examples/decomposition/plot_pca_3d.html) [![pca_3d_aligned](img/c39b576ee6e4fc82b4d9edd06ffc8c9c.jpg)](https://scikit-learn.org/stable/auto_examples/decomposition/plot_pca_3d.html)
......@@ -175,7 +175,7 @@ PCA(copy=True, iterated_power='auto', n_components=None, random_state=None,
### 独立成分分析: ICA
[独立成分分析(ICA)](docs/24?id=_255-独立成分分析(ica)) 可以提取数据信息中的独立成分,这些成分载荷的分布包含了最多的 的独立信息。该方法能够恢复 **non-Gaussian(非高斯)** 独立信号:
[独立成分分析(ICA)](24?id=_255-独立成分分析(ica)) 可以提取数据信息中的独立成分,这些成分载荷的分布包含了最多的 的独立信息。该方法能够恢复 **non-Gaussian(非高斯)** 独立信号:
[![http://sklearn.apachecn.org/cn/0.19.0/_images/sphx_glr_plot_ica_blind_source_separation_001.png](img/5f0a6e9a20a071d688e183c9675544e5.jpg)](https://scikit-learn.org/stable/auto_examples/decomposition/plot_ica_blind_source_separation.html)
......
......@@ -20,7 +20,7 @@
开始这篇教程之前,你必须首先安装 _scikit-learn_ 以及所有其要求的库。
更多信息和系统安装指导请参考 [安装说明](docs/62)
更多信息和系统安装指导请参考 [安装说明](62)
这篇入门教程的源代码可以在你的 scikit-learn 文件夹下面找到:
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册