From a6eb46550e233ba00e183c9ec1d71fcaa521ea6e Mon Sep 17 00:00:00 2001 From: loopyme <33747091+loopyme@users.noreply.github.com> Date: Sun, 2 Jun 2019 11:44:02 +0800 Subject: [PATCH] =?UTF-8?q?Revert=20"=E6=89=B9=E9=87=8F=E8=B0=83=E6=95=B4?= =?UTF-8?q?=E7=9B=91=E7=9D=A3=E5=AD=A6=E4=B9=A0=E7=9B=AE=E5=BD=95=E9=93=BE?= =?UTF-8?q?=E6=8E=A5"?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit This reverts commit 0cdd63fa0e7fde773c431a1fb0b3664e3f4095be. --- docs/1.md | 388 +++++++++++++++++++++++++++--------------------------- 1 file changed, 194 insertions(+), 194 deletions(-) diff --git a/docs/1.md b/docs/1.md index db18047..c9d5d15 100644 --- a/docs/1.md +++ b/docs/1.md @@ -1,196 +1,196 @@ # 1\. 监督学习 -* [1.1\. 广义线性模型](/docs/2?id=_11-广义线性模型) - * [1.1.1\. 普通最小二乘法](/docs/2?id=_111-普通最小二乘法) - * [1.1.1.1\. 普通最小二乘法复杂度](/docs/2?id=_1111-普通最小二乘法复杂度) - * [1.1.2\. 岭回归](/docs/2?id=_112-岭回归) - * [1.1.2.1\. 岭回归的复杂度](/docs/2?id=_1121-岭回归的复杂度) - * [1.1.2.2\. 设置正则化参数:广义交叉验证](/docs/2?id=_1122-设置正则化参数:广义交叉验证) - * [1.1.3\. Lasso](/docs/2?id=_113-lasso) - * [1.1.3.1\. 设置正则化参数](/docs/2?id=_1131-设置正则化参数) - * [1.1.3.1.1\. 使用交叉验证](/docs/2?id=_11311-使用交叉验证) - * [1.1.3.1.2\. 基于信息标准的模型选择](/docs/2?id=_11312-基于信息标准的模型选择) - * [1.1.3.1.3\. 与 SVM 的正则化参数的比较](/docs/2?id=_11313-与-svm-的正则化参数的比较) - * [1.1.4\. 多任务 Lasso](/docs/2?id=_114-多任务-lasso) - * [1.1.5\. 弹性网络](/docs/2?id=_115-弹性网络) - * [1.1.6\. 多任务弹性网络](/docs/2?id=_116-多任务弹性网络) - * [1.1.7\. 最小角回归](/docs/2?id=_117-最小角回归) - * [1.1.8\. LARS Lasso](/docs/2?id=_118-lars-lasso) - * [1.1.8.1\. 数学表达式](/docs/2?id=_1181-数学表达式) - * [1.1.9\. 正交匹配追踪法(OMP)](/docs/2?id=_119-正交匹配追踪法(omp)) - * [1.1.10\. 贝叶斯回归](/docs/2?id=_1110-贝叶斯回归) - * [1.1.10.1\. 贝叶斯岭回归](/docs/2?id=_11101-贝叶斯岭回归) - * [1.1.10.2\. 主动相关决策理论 - ARD](/docs/2?id=_11102-主动相关决策理论---ard) - * [1.1.11\. logistic 回归](/docs/2?id=_1111-logistic-回归) - * [1.1.12\. 随机梯度下降, SGD](/docs/2?id=_1112-随机梯度下降,-sgd) - * [1.1.13\. Perceptron(感知器)](/docs/2?id=_1113-perceptron(感知器)) - * [1.1.14\. Passive Aggressive Algorithms(被动攻击算法)](/docs/2?id=_1114-passive-aggressive-algorithms(被动攻击算法)) - * [1.1.15\. 稳健回归(Robustness regression): 处理离群点(outliers)和模型错误](/docs/2?id=_1115-稳健回归(robustness-regression):-处理离群点(outliers)和模型错误) - * [1.1.15.1\. 各种使用场景与相关概念](/docs/2?id=_11151-各种使用场景与相关概念) - * [1.1.15.2\. RANSAC: 随机抽样一致性算法(RANdom SAmple Consensus)](/docs/2?id=_11152-ransac:-随机抽样一致性算法(random-sample-consensus)) - * [1.1.15.2.1\. 算法细节](/docs/2?id=_111521-算法细节) - * [1.1.15.3\. Theil-Sen 预估器: 广义中值估计器(generalized-median-based estimator)](/docs/2?id=_11153-theil-sen-预估器:-广义中值估计器(generalized-median-based-estimator)) - * [1.1.15.3.1\. 算法理论细节](/docs/2?id=_111531-算法理论细节) - * [1.1.15.4\. Huber 回归](/docs/2?id=_11154-huber-回归) - * [1.1.15.5\. 注意](/docs/2?id=_11155-注意) - * [1.1.16\. 多项式回归:用基函数展开线性模型](/docs/2?id=_1116-多项式回归:用基函数展开线性模型) -* [1.2\. 线性和二次判别分析](/docs/3?id=_12-线性和二次判别分析) - * [1.2.1\. 使用线性判别分析来降维](/docs/3?id=_121-使用线性判别分析来降维) - * [1.2.2\. LDA 和 QDA 分类器的数学公式](/docs/3?id=_122-lda-和-qda-分类器的数学公式) - * [1.2.3\. LDA 的降维数学公式](/docs/3?id=_123-lda-的降维数学公式) - * [1.2.4\. Shrinkage(收缩)](/docs/3?id=_124-shrinkage(收缩)) - * [1.2.5\. 预估算法](/docs/3?id=_125-预估算法) -* [1.3\. 内核岭回归](/docs/4?id=_13-内核岭回归) -* [1.4\. 支持向量机](/docs/5?id=_14-支持向量机) - * [1.4.1\. 分类](/docs/5?id=_141-分类) - * [1.4.1.1\. 多元分类](/docs/5?id=_1411-多元分类) - * [1.4.1.2\. 得分和概率](/docs/5?id=_1412-得分和概率) - * [1.4.1.3\. 非均衡问题](/docs/5?id=_1413-非均衡问题) - * [1.4.2\. 回归](/docs/5?id=_142-回归) - * [1.4.3\. 密度估计, 异常(novelty)检测](/docs/5?id=_143-密度估计,-异常(novelty)检测) - * [1.4.4\. 复杂度](/docs/5?id=_144-复杂度) - * [1.4.5\. 使用诀窍](/docs/5?id=_145-使用诀窍) - * [1.4.6\. 核函数](/docs/5?id=_146-核函数) - * [1.4.6.1\. 自定义核](/docs/5?id=_1461-自定义核) - * [1.4.6.1.1\. 使用 python 函数作为内核](/docs/5?id=_14611-使用-python-函数作为内核) - * [1.4.6.1.2\. 使用 Gram 矩阵](/docs/5?id=_14612-使用-gram-矩阵) - * [1.4.6.1.3\. RBF 内核参数](/docs/5?id=_14613-rbf-内核参数) - * [1.4.7\. 数学公式](/docs/5?id=_147-数学公式) - * [1.4.7.1\. SVC](/docs/5?id=_1471-svc) - * [1.4.7.2\. NuSVC](/docs/5?id=_1472-nusvc) - * [1.4.7.3\. SVR](/docs/5?id=_1473-svr) - * [1.4.8\. 实现细节](/docs/5?id=_148-实现细节) -* [1.5\. 随机梯度下降](/docs/6?id=_15-随机梯度下降) - * [1.5.1\. 分类](/docs/6?id=_151-分类) - * [1.5.2\. 回归](/docs/6?id=_152-回归) - * [1.5.3\. 稀疏数据的随机梯度下降](/docs/6?id=_153-稀疏数据的随机梯度下降) - * [1.5.4\. 复杂度](/docs/6?id=_154-复杂度) - * [1.5.5\. 实用小贴士](/docs/6?id=_155-实用小贴士) - * [1.5.6\. 数学描述](/docs/6?id=_156-数学描述) - * [1.5.6.1\. SGD](/docs/6?id=_1561-sgd) - * [1.5.7\. 实现细节](/docs/6?id=_157-实现细节) -* [1.6\. 最近邻](/docs/7?id=_16-最近邻) - * [1.6.1\. 无监督最近邻](/docs/7?id=_161-无监督最近邻) - * [1.6.1.1\. 找到最近邻](/docs/7?id=_1611-找到最近邻) - * [1.6.1.2\. KDTree 和 BallTree 类](/docs/7?id=_1612-kdtree-和-balltree-类) - * [1.6.2\. 最近邻分类](/docs/7?id=_162-最近邻分类) - * [1.6.3\. 最近邻回归](/docs/7?id=_163-最近邻回归) - * [1.6.4\. 最近邻算法](/docs/7?id=_164-最近邻算法) - * [1.6.4.1\. 暴力计算](/docs/7?id=_1641-暴力计算) - * [1.6.4.2\. K-D 树](/docs/7?id=_1642-k-d-树) - * [1.6.4.3\. Ball 树](/docs/7?id=_1643-ball-树) - * [1.6.4.4\. 最近邻算法的选择](/docs/7?id=_1644-最近邻算法的选择) - * [1.6.4.5\. `leaf_size` 的影响](/docs/7?id=_1645-`leaf_size`-的影响) - * [1.6.5\. 最近质心分类](/docs/7?id=_165-最近质心分类) - * [1.6.5.1\. 最近缩小质心](/docs/7?id=_1651-最近缩小质心) -* [1.7\. 高斯过程](/docs/8?id=_17-高斯过程) - * [1.7.1\. 高斯过程回归(GPR)](/docs/8?id=_171-高斯过程回归(gpr)) - * [1.7.2\. GPR 示例](/docs/8?id=_172-gpr-示例) - * [1.7.2.1\. 具有噪声级的 GPR 估计](/docs/8?id=_1721-具有噪声级的-gpr-估计) - * [1.7.2.2\. GPR 和内核岭回归(Kernel Ridge Regression)的比较](/docs/8?id=_1722-gpr-和内核岭回归(kernel-ridge-regression的比较) - * [1.7.2.3\. Mauna Loa CO2 数据中的 GRR](/docs/8?id=_1723-mauna-loa-co2-数据中的-grr) - * [1.7.3\. 高斯过程分类(GPC)](/docs/8?id=_173-高斯过程分类(gpc)) - * [1.7.4\. GPC 示例](/docs/8?id=_174-gpc-示例) - * [1.7.4.1\. GPC 概率预测](/docs/8?id=_1741-gpc-概率预测) - * [1.7.4.2\. GPC 在 XOR 数据集上的举例说明](/docs/8?id=_1742-gpc-在-xor-数据集上的举例说明) - * [1.7.4.3\. iris 数据集上的高斯过程分类(GPC)](/docs/8?id=_1743-iris-数据集上的高斯过程分类(gpc)) - * [1.7.5\. 高斯过程内核](/docs/8?id=_175-高斯过程内核) - * [1.7.5.1\. 高斯过程内核 API](/docs/8?id=_1751-高斯过程内核-api) - * [1.7.5.2\. 基础内核](/docs/8?id=_1752-基础内核) - * [1.7.5.3\. 内核操作](/docs/8?id=_1753-内核操作) - * [1.7.5.4\. 径向基函数内核](/docs/8?id=_1754-径向基函数内核) - * [1.7.5.5\. Matérn 内核](/docs/8?id=_1755-matérn-内核) - * [1.7.5.6\. 有理二次内核](/docs/8?id=_1756-有理二次内核) - * [1.7.5.7\. 正弦平方内核](/docs/8?id=_1757-正弦平方内核) - * [1.7.5.8\. 点乘内核](/docs/8?id=_1758-点乘内核) - * [1.7.5.9\. 参考文献](/docs/8?id=_1759-参考文献) - * [1.7.6\. 传统高斯过程](/docs/8?id=_176-传统高斯过程) - * [1.7.6.1\. 回归实例介绍](/docs/8?id=_1761-回归实例介绍) - * [1.7.6.2\. 噪声数据拟合](/docs/8?id=_1762-噪声数据拟合) - * [1.7.6.3\. 数学形式](/docs/8?id=_1763-数学形式) - * [1.7.6.3.1\. 初始假设](/docs/8?id=_17631-初始假设) - * [1.7.6.3.2\. 最佳线性无偏预测(BLUP)](/docs/8?id=_17632-最佳线性无偏预测(blup)) - * [1.7.6.3.3\. 经验最佳线性无偏估计(EBLUP)](/docs/8?id=_17633-经验最佳线性无偏估计(eblup)) - * [1.7.6.4\. 关联模型](/docs/8?id=_1764-关联模型) - * [1.7.6.5\. 回归模型](/docs/8?id=_1765-回归模型) - * [1.7.6.6\. 实现细节](/docs/8?id=_1766-实现细节) -* [1.8\. 交叉分解](/docs/9?id=_18-交叉分解) -* [1.9\. 朴素贝叶斯](/docs/10?id=_19-朴素贝叶斯) - * [1.9.1\. 高斯朴素贝叶斯](/docs/10?id=_191-高斯朴素贝叶斯) - * [1.9.2\. 多项分布朴素贝叶斯](/docs/10?id=_192-多项分布朴素贝叶斯) - * [1.9.3\. 伯努利朴素贝叶斯](/docs/10?id=_193-伯努利朴素贝叶斯) - * [1.9.4\. 堆外朴素贝叶斯模型拟合](/docs/10?id=_194-堆外朴素贝叶斯模型拟合) -* [1.10\. 决策树](/docs/11?id=_110-决策树) - * [1.10.1\. 分类](/docs/11?id=_1101-分类) - * [1.10.2\. 回归](/docs/11?id=_1102-回归) - * [1.10.3\. 多值输出问题](/docs/11?id=_1103-多值输出问题) - * [1.10.4\. 复杂度分析](/docs/11?id=_1104-复杂度分析) - * [1.10.5\. 实际使用技巧](/docs/11?id=_1105-实际使用技巧) - * [1.10.6\. 决策树算法: ID3, C4.5, C5.0 和 CART](/docs/11?id=_1106-决策树算法:-id3,-c45,-c50-和-cart) - * [1.10.7\. 数学表达](/docs/11?id=_1107-数学表达) - * [1.10.7.1\. 分类标准](/docs/11?id=_11071-分类标准) - * [1.10.7.2\. 回归标准](/docs/11?id=_11072-回归标准) -* [1.11\. 集成方法](/docs/12?id=_111-集成方法) - * [1.11.1\. Bagging meta-estimator(Bagging 元估计器)](/docs/12?id=_1111-bagging-meta-estimator(bagging-元估计器)) - * [1.11.2\. 由随机树组成的森林](/docs/12?id=_1112-由随机树组成的森林) - * [1.11.2.1\. 随机森林](/docs/12?id=_11121-随机森林) - * [1.11.2.2\. 极限随机树](/docs/12?id=_11122-极限随机树) - * [1.11.2.3\. 参数](/docs/12?id=_11123-参数) - * [1.11.2.4\. 并行化](/docs/12?id=_11124-并行化) - * [1.11.2.5\. 特征重要性评估](/docs/12?id=_11125-特征重要性评估) - * [1.11.2.6\. 完全随机树嵌入](/docs/12?id=_11126-完全随机树嵌入) - * [1.11.3\. AdaBoost](/docs/12?id=_1113-adaboost) - * [1.11.3.1\. 使用方法](/docs/12?id=_11131-使用方法) - * [1.11.4\. Gradient Tree Boosting(梯度树提升)](/docs/12?id=_1114-gradient-tree-boosting(梯度树提升)) - * [1.11.4.1\. 分类](/docs/12?id=_11141-分类) - * [1.11.4.2\. 回归](/docs/12?id=_11142-回归) - * [1.11.4.3\. 训练额外的弱学习器](/docs/12?id=_11143-训练额外的弱学习器) - * [1.11.4.4\. 控制树的大小](/docs/12?id=_11144-控制树的大小) - * [1.11.4.5\. Mathematical formulation(数学公式)](/docs/12?id=_11145-mathematical-formulation(数学公式)) - * [1.11.4.5.1\. Loss Functions(损失函数)](/docs/12?id=_111451-loss-functions(损失函数)) - * [1.11.4.6\. Regularization(正则化)](/docs/12?id=_11146-regularization(正则化)) - * [1.11.4.6.1\. 收缩率 (Shrinkage)](/docs/12?id=_111461-收缩率-(shrinkage) - * [1.11.4.6.2\. 子采样 (Subsampling)](/docs/12?id=_111462-子采样-(subsampling) - * [1.11.4.7\. Interpretation(解释性)](/docs/12?id=_11147-interpretation(解释性)) - * [1.11.4.7.1\. Feature importance(特征重要性)](/docs/12?id=_111471-feature-importance(特征重要性)) - * [1.11.4.7.2\. Partial dependence(部分依赖)](/docs/12?id=_111472-partial-dependence(部分依赖)) - * [1.11.5\. Voting Classifier(投票分类器)](/docs/12?id=_1115-voting-classifier(投票分类器)) - * [1.11.5.1\. 多数类标签 (又称为 多数/硬投票)](/docs/12?id=_11151-多数类标签-(又称为-多数/硬投票) - * [1.11.5.1.1\. 用法](/docs/12?id=_111511-用法) - * [1.11.5.2\. 加权平均概率 (软投票)](/docs/12?id=_11152-加权平均概率-(软投票)) - * [1.11.5.3\. 投票分类器(VotingClassifier)在网格搜索(GridSearch)应用](/docs/12?id=_11153-投票分类器(votingclassifier)在网格搜索(gridsearch)应用) - * [1.11.5.3.1\. 用法](/docs/12?id=_111531-用法) -* [1.12\. 多类和多标签算法](/docs/13?id=_112-多类和多标签算法) - * [1.12.1\. 多标签分类格式](/docs/13?id=_1121-多标签分类格式) - * [1.12.2\. 1对其余](/docs/13?id=_1122-1对其余) - * [1.12.2.1\. 多类学习](/docs/13?id=_11221-多类学习) - * [1.12.2.2\. 多标签学习](/docs/13?id=_11222-多标签学习) - * [1.12.3\. 1对1](/docs/13?id=_1123-1对1) - * [1.12.3.1\. 多类别学习](/docs/13?id=_11231-多类别学习) - * [1.12.4\. 误差校正输出代码](/docs/13?id=_1124-误差校正输出代码) - * [1.12.4.1\. 多类别学习](/docs/13?id=_11241-多类别学习) - * [1.12.5\. 多输出回归](/docs/13?id=_1125-多输出回归) - * [1.12.6\. 多输出分类](/docs/13?id=_1126-多输出分类) - * [1.12.7\. 链式分类器](/docs/13?id=_1127-链式分类器) -* [1.13\. 特征选择](/docs/14?id=_113-特征选择) - * [1.13.1\. 移除低方差特征](/docs/14?id=_1131-移除低方差特征) - * [1.13.2\. 单变量特征选择](/docs/14?id=_1132-单变量特征选择) - * [1.13.3\. 递归式特征消除](/docs/14?id=_1133-递归式特征消除) - * [1.13.4\. 使用 SelectFromModel 选取特征](/docs/14?id=_1134-使用-selectfrommodel-选取特征) - * [1.13.4.1\. 基于 L1 的特征选取](/docs/14?id=_11341-基于-l1-的特征选取) - * [1.13.4.2\. 基于 Tree(树)的特征选取](/docs/14?id=_11342-基于-tree(树)的特征选取) - * [1.13.5\. 特征选取作为 pipeline(管道)的一部分](/docs/14?id=_1135-特征选取作为-pipeline(管道)的一部分) -* [1.14\. 半监督学习](/docs/15?id=_114-半监督学习) - * [1.14.1\. 标签传播](/docs/15?id=_1141-标签传播) -* [1.15\. 等式回归](/docs/16?id=_115-等式回归) -* [1.16\. 概率校准](/docs/17?id=_116-概率校准) -* [1.17\. 神经网络模型(有监督)](/docs/18?id=_117-神经网络模型(有监督)) - * [1.17.1\. 多层感知器](/docs/18?id=_1171-多层感知器) - * [1.17.2\. 分类](/docs/18?id=_1172-分类) - * [1.17.3\. 回归](/docs/18?id=_1173-回归) - * [1.17.4\. 正则化](/docs/18?id=_1174-正则化) - * [1.17.5\. 算法](/docs/18?id=_1175-算法) - * [1.17.6\. 复杂度](/docs/18?id=_1176-复杂度) - * [1.17.7\. 数学公式](/docs/18?id=_1177-数学公式) - * [1.17.8\. 实用技巧](/docs/18?id=_1178-实用技巧) - * [1.17.9\. 使用 warm_start 的更多控制](/docs/18?id=_1179-使用-warm_start-的更多控制) \ No newline at end of file +* [1.1\. 广义线性模型](modules/linear_model.html) + * [1.1.1\. 普通最小二乘法](modules/linear_model.html#ordinary-least-squares) + * [1.1.1.1\. 普通最小二乘法复杂度](modules/linear_model.html#id3) + * [1.1.2\. 岭回归](modules/linear_model.html#ridge-regression) + * [1.1.2.1\. 岭回归的复杂度](modules/linear_model.html#id9) + * [1.1.2.2\. 设置正则化参数:广义交叉验证](modules/linear_model.html#id10) + * [1.1.3\. Lasso](modules/linear_model.html#lasso) + * [1.1.3.1\. 设置正则化参数](modules/linear_model.html#id12) + * [1.1.3.1.1\. 使用交叉验证](modules/linear_model.html#id13) + * [1.1.3.1.2\. 基于信息标准的模型选择](modules/linear_model.html#id14) + * [1.1.3.1.3\. 与 SVM 的正则化参数的比较](modules/linear_model.html#svm) + * [1.1.4\. 多任务 Lasso](modules/linear_model.html#id17) + * [1.1.5\. 弹性网络](modules/linear_model.html#elastic-net) + * [1.1.6\. 多任务弹性网络](modules/linear_model.html#multi-task-elastic-net) + * [1.1.7\. 最小角回归](modules/linear_model.html#least-angle-regression) + * [1.1.8\. LARS Lasso](modules/linear_model.html#lars-lasso) + * [1.1.8.1\. 数学表达式](modules/linear_model.html#id21) + * [1.1.9\. 正交匹配追踪法(OMP)](modules/linear_model.html#omp) + * [1.1.10\. 贝叶斯回归](modules/linear_model.html#bayesian-regression) + * [1.1.10.1\. 贝叶斯岭回归](modules/linear_model.html#bayesian-ridge-regression) + * [1.1.10.2\. 主动相关决策理论 - ARD](modules/linear_model.html#ard) + * [1.1.11\. logistic 回归](modules/linear_model.html#logistic) + * [1.1.12\. 随机梯度下降, SGD](modules/linear_model.html#sgd) + * [1.1.13\. Perceptron(感知器)](modules/linear_model.html#perceptron) + * [1.1.14\. Passive Aggressive Algorithms(被动攻击算法)](modules/linear_model.html#passive-aggressive-algorithms) + * [1.1.15\. 稳健回归(Robustness regression): 处理离群点(outliers)和模型错误](modules/linear_model.html#robustness-regression-outliers) + * [1.1.15.1\. 各种使用场景与相关概念](modules/linear_model.html#id43) + * [1.1.15.2\. RANSAC: 随机抽样一致性算法(RANdom SAmple Consensus)](modules/linear_model.html#ransac-random-sample-consensus) + * [1.1.15.2.1\. 算法细节](modules/linear_model.html#id44) + * [1.1.15.3\. Theil-Sen 预估器: 广义中值估计器(generalized-median-based estimator)](modules/linear_model.html#theil-sen-generalized-median-based-estimator) + * [1.1.15.3.1\. 算法理论细节](modules/linear_model.html#id45) + * [1.1.15.4\. Huber 回归](modules/linear_model.html#huber) + * [1.1.15.5\. 注意](modules/linear_model.html#id48) + * [1.1.16\. 多项式回归:用基函数展开线性模型](modules/linear_model.html#polynomial-regression) +* [1.2\. 线性和二次判别分析](modules/lda_qda.html) + * [1.2.1\. 使用线性判别分析来降维](modules/lda_qda.html#id2) + * [1.2.2\. LDA 和 QDA 分类器的数学公式](modules/lda_qda.html#id3) + * [1.2.3\. LDA 的降维数学公式](modules/lda_qda.html#lda) + * [1.2.4\. Shrinkage(收缩)](modules/lda_qda.html#shrinkage) + * [1.2.5\. 预估算法](modules/lda_qda.html#id6) +* [1.3\. 内核岭回归](modules/kernel_ridge.html) +* [1.4\. 支持向量机](modules/svm.html) + * [1.4.1\. 分类](modules/svm.html#svm-classification) + * [1.4.1.1\. 多元分类](modules/svm.html#svm-multi-class) + * [1.4.1.2\. 得分和概率](modules/svm.html#scores-probabilities) + * [1.4.1.3\. 非均衡问题](modules/svm.html#id5) + * [1.4.2\. 回归](modules/svm.html#svm-regression) + * [1.4.3\. 密度估计, 异常(novelty)检测](modules/svm.html#novelty) + * [1.4.4\. 复杂度](modules/svm.html#id7) + * [1.4.5\. 使用诀窍](modules/svm.html#id8) + * [1.4.6\. 核函数](modules/svm.html#svm-kernels) + * [1.4.6.1\. 自定义核](modules/svm.html#id10) + * [1.4.6.1.1\. 使用 python 函数作为内核](modules/svm.html#python) + * [1.4.6.1.2\. 使用 Gram 矩阵](modules/svm.html#gram) + * [1.4.6.1.3\. RBF 内核参数](modules/svm.html#rbf) + * [1.4.7\. 数学公式](modules/svm.html#svm-mathematical-formulation) + * [1.4.7.1\. SVC](modules/svm.html#svc) + * [1.4.7.2\. NuSVC](modules/svm.html#nusvc) + * [1.4.7.3\. SVR](modules/svm.html#svr) + * [1.4.8\. 实现细节](modules/svm.html#svm-implementation-details) +* [1.5\. 随机梯度下降](modules/sgd.html) + * [1.5.1\. 分类](modules/sgd.html#id3) + * [1.5.2\. 回归](modules/sgd.html#id4) + * [1.5.3\. 稀疏数据的随机梯度下降](modules/sgd.html#id5) + * [1.5.4\. 复杂度](modules/sgd.html#id6) + * [1.5.5\. 实用小贴士](modules/sgd.html#id7) + * [1.5.6\. 数学描述](modules/sgd.html#sgd-mathematical-formulation) + * [1.5.6.1\. SGD](modules/sgd.html#id9) + * [1.5.7\. 实现细节](modules/sgd.html#id10) +* [1.6\. 最近邻](modules/neighbors.html) + * [1.6.1\. 无监督最近邻](modules/neighbors.html#unsupervised-neighbors) + * [1.6.1.1\. 找到最近邻](modules/neighbors.html#id3) + * [1.6.1.2\. KDTree 和 BallTree 类](modules/neighbors.html#kdtree-balltree) + * [1.6.2\. 最近邻分类](modules/neighbors.html#classification) + * [1.6.3\. 最近邻回归](modules/neighbors.html#regression) + * [1.6.4\. 最近邻算法](modules/neighbors.html#id6) + * [1.6.4.1\. 暴力计算](modules/neighbors.html#brute-force) + * [1.6.4.2\. K-D 树](modules/neighbors.html#k-d) + * [1.6.4.3\. Ball 树](modules/neighbors.html#ball) + * [1.6.4.4\. 最近邻算法的选择](modules/neighbors.html#id8) + * [1.6.4.5\. `leaf_size` 的影响](modules/neighbors.html#leaf-size) + * [1.6.5\. 最近质心分类](modules/neighbors.html#nearest-centroid-classifier) + * [1.6.5.1\. 最近缩小质心](modules/neighbors.html#id10) +* [1.7\. 高斯过程](modules/gaussian_process.html) + * [1.7.1\. 高斯过程回归(GPR)](modules/gaussian_process.html#gpr) + * [1.7.2\. GPR 示例](modules/gaussian_process.html#id4) + * [1.7.2.1\. 具有噪声级的 GPR 估计](modules/gaussian_process.html#id5) + * [1.7.2.2\. GPR 和内核岭回归(Kernel Ridge Regression)的比较](modules/gaussian_process.html#gpr-kernel-ridge-regression) + * [1.7.2.3\. Mauna Loa CO2 数据中的 GRR](modules/gaussian_process.html#mauna-loa-co2-grr) + * [1.7.3\. 高斯过程分类(GPC)](modules/gaussian_process.html#gpc) + * [1.7.4\. GPC 示例](modules/gaussian_process.html#id7) + * [1.7.4.1\. GPC 概率预测](modules/gaussian_process.html#id8) + * [1.7.4.2\. GPC 在 XOR 数据集上的举例说明](modules/gaussian_process.html#gpc-xor) + * [1.7.4.3\. iris 数据集上的高斯过程分类(GPC)](modules/gaussian_process.html#iris-gpc) + * [1.7.5\. 高斯过程内核](modules/gaussian_process.html#gp-kernels) + * [1.7.5.1\. 高斯过程内核 API](modules/gaussian_process.html#api) + * [1.7.5.2\. 基础内核](modules/gaussian_process.html#id11) + * [1.7.5.3\. 内核操作](modules/gaussian_process.html#id12) + * [1.7.5.4\. 径向基函数内核](modules/gaussian_process.html#id13) + * [1.7.5.5\. Matérn 内核](modules/gaussian_process.html#matern) + * [1.7.5.6\. 有理二次内核](modules/gaussian_process.html#id15) + * [1.7.5.7\. 正弦平方内核](modules/gaussian_process.html#id16) + * [1.7.5.8\. 点乘内核](modules/gaussian_process.html#id17) + * [1.7.5.9\. 参考文献](modules/gaussian_process.html#id18) + * [1.7.6\. 传统高斯过程](modules/gaussian_process.html#id19) + * [1.7.6.1\. 回归实例介绍](modules/gaussian_process.html#id20) + * [1.7.6.2\. 噪声数据拟合](modules/gaussian_process.html#id21) + * [1.7.6.3\. 数学形式](modules/gaussian_process.html#id22) + * [1.7.6.3.1\. 初始假设](modules/gaussian_process.html#id23) + * [1.7.6.3.2\. 最佳线性无偏预测(BLUP)](modules/gaussian_process.html#blup) + * [1.7.6.3.3\. 经验最佳线性无偏估计(EBLUP)](modules/gaussian_process.html#eblup) + * [1.7.6.4\. 关联模型](modules/gaussian_process.html#correlation-models) + * [1.7.6.5\. 回归模型](modules/gaussian_process.html#regression-models) + * [1.7.6.6\. 实现细节](modules/gaussian_process.html#id26) +* [1.8\. 交叉分解](modules/cross_decomposition.html) +* [1.9\. 朴素贝叶斯](modules/naive_bayes.html) + * [1.9.1\. 高斯朴素贝叶斯](modules/naive_bayes.html#gaussian-naive-bayes) + * [1.9.2\. 多项分布朴素贝叶斯](modules/naive_bayes.html#multinomial-naive-bayes) + * [1.9.3\. 伯努利朴素贝叶斯](modules/naive_bayes.html#bernoulli-naive-bayes) + * [1.9.4\. 堆外朴素贝叶斯模型拟合](modules/naive_bayes.html#id5) +* [1.10\. 决策树](modules/tree.html) + * [1.10.1\. 分类](modules/tree.html#tree-classification) + * [1.10.2\. 回归](modules/tree.html#tree-regression) + * [1.10.3\. 多值输出问题](modules/tree.html#tree-multioutput) + * [1.10.4\. 复杂度分析](modules/tree.html#tree-complexity) + * [1.10.5\. 实际使用技巧](modules/tree.html#id6) + * [1.10.6\. 决策树算法: ID3, C4.5, C5.0 和 CART](modules/tree.html#tree-algorithms) + * [1.10.7\. 数学表达](modules/tree.html#tree-mathematical-formulation) + * [1.10.7.1\. 分类标准](modules/tree.html#id9) + * [1.10.7.2\. 回归标准](modules/tree.html#id10) +* [1.11\. 集成方法](modules/ensemble.html) + * [1.11.1\. Bagging meta-estimator(Bagging 元估计器)](modules/ensemble.html#bagging-meta-estimator-bagging) + * [1.11.2\. 由随机树组成的森林](modules/ensemble.html#forest) + * [1.11.2.1\. 随机森林](modules/ensemble.html#id8) + * [1.11.2.2\. 极限随机树](modules/ensemble.html#id10) + * [1.11.2.3\. 参数](modules/ensemble.html#id11) + * [1.11.2.4\. 并行化](modules/ensemble.html#id12) + * [1.11.2.5\. 特征重要性评估](modules/ensemble.html#random-forest-feature-importance) + * [1.11.2.6\. 完全随机树嵌入](modules/ensemble.html#random-trees-embedding) + * [1.11.3\. AdaBoost](modules/ensemble.html#adaboost) + * [1.11.3.1\. 使用方法](modules/ensemble.html#id20) + * [1.11.4\. Gradient Tree Boosting(梯度树提升)](modules/ensemble.html#gradient-tree-boosting) + * [1.11.4.1\. 分类](modules/ensemble.html#id22) + * [1.11.4.2\. 回归](modules/ensemble.html#id23) + * [1.11.4.3\. 训练额外的弱学习器](modules/ensemble.html#gradient-boosting-warm-start) + * [1.11.4.4\. 控制树的大小](modules/ensemble.html#gradient-boosting-tree-size) + * [1.11.4.5\. Mathematical formulation(数学公式)](modules/ensemble.html#mathematical-formulation) + * [1.11.4.5.1\. Loss Functions(损失函数)](modules/ensemble.html#loss-functions) + * [1.11.4.6\. Regularization(正则化)](modules/ensemble.html#regularization) + * [1.11.4.6.1\. 收缩率 (Shrinkage)](modules/ensemble.html#shrinkage) + * [1.11.4.6.2\. 子采样 (Subsampling)](modules/ensemble.html#subsampling) + * [1.11.4.7\. Interpretation(解释性)](modules/ensemble.html#interpretation) + * [1.11.4.7.1\. Feature importance(特征重要性)](modules/ensemble.html#feature-importance) + * [1.11.4.7.2\. Partial dependence(部分依赖)](modules/ensemble.html#partial-dependence) + * [1.11.5\. Voting Classifier(投票分类器)](modules/ensemble.html#voting-classifier) + * [1.11.5.1\. 多数类标签 (又称为 多数/硬投票)](modules/ensemble.html#id38) + * [1.11.5.1.1\. 用法](modules/ensemble.html#id39) + * [1.11.5.2\. 加权平均概率 (软投票)](modules/ensemble.html#id40) + * [1.11.5.3\. 投票分类器(VotingClassifier)在网格搜索(GridSearch)应用](modules/ensemble.html#votingclassifier-gridsearch) + * [1.11.5.3.1\. 用法](modules/ensemble.html#id41) +* [1.12\. 多类和多标签算法](modules/multiclass.html) + * [1.12.1\. 多标签分类格式](modules/multiclass.html#id4) + * [1.12.2\. 1对其余](modules/multiclass.html#ovr-classification) + * [1.12.2.1\. 多类学习](modules/multiclass.html#id6) + * [1.12.2.2\. 多标签学习](modules/multiclass.html#id7) + * [1.12.3\. 1对1](modules/multiclass.html#ovo-classification) + * [1.12.3.1\. 多类别学习](modules/multiclass.html#id9) + * [1.12.4\. 误差校正输出代码](modules/multiclass.html#ecoc) + * [1.12.4.1\. 多类别学习](modules/multiclass.html#id12) + * [1.12.5\. 多输出回归](modules/multiclass.html#id14) + * [1.12.6\. 多输出分类](modules/multiclass.html#id15) + * [1.12.7\. 链式分类器](modules/multiclass.html#id16) +* [1.13\. 特征选择](modules/feature_selection.html) + * [1.13.1\. 移除低方差特征](modules/feature_selection.html#variance-threshold) + * [1.13.2\. 单变量特征选择](modules/feature_selection.html#univariate-feature-selection) + * [1.13.3\. 递归式特征消除](modules/feature_selection.html#rfe) + * [1.13.4\. 使用 SelectFromModel 选取特征](modules/feature_selection.html#selectfrommodel) + * [1.13.4.1\. 基于 L1 的特征选取](modules/feature_selection.html#l1) + * [1.13.4.2\. 基于 Tree(树)的特征选取](modules/feature_selection.html#tree) + * [1.13.5\. 特征选取作为 pipeline(管道)的一部分](modules/feature_selection.html#pipeline) +* [1.14\. 半监督学习](modules/label_propagation.html) + * [1.14.1\. 标签传播](modules/label_propagation.html#label-propagation) +* [1.15\. 等式回归](modules/isotonic.html) +* [1.16\. 概率校准](modules/calibration.html) +* [1.17\. 神经网络模型(有监督)](modules/neural_networks_supervised.html) + * [1.17.1\. 多层感知器](modules/neural_networks_supervised.html#multilayer-perceptron) + * [1.17.2\. 分类](modules/neural_networks_supervised.html#id3) + * [1.17.3\. 回归](modules/neural_networks_supervised.html#id4) + * [1.17.4\. 正则化](modules/neural_networks_supervised.html#id5) + * [1.17.5\. 算法](modules/neural_networks_supervised.html#id6) + * [1.17.6\. 复杂度](modules/neural_networks_supervised.html#id7) + * [1.17.7\. 数学公式](modules/neural_networks_supervised.html#id8) + * [1.17.8\. 实用技巧](modules/neural_networks_supervised.html#mlp-tips) + * [1.17.9\. 使用 warm_start 的更多控制](modules/neural_networks_supervised.html#warm-start) \ No newline at end of file -- GitLab