diff --git a/docs/0.21.3/24.md b/docs/0.21.3/24.md index 29eba185dc46fd9d4d9f439d4f1436405d8db902..1fdc34635d9438b1aa1fe274f8f2f75a6b6851b2 100644 --- a/docs/0.21.3/24.md +++ b/docs/0.21.3/24.md @@ -44,7 +44,7 @@ PCA 用于对具有一组连续正交分量(Orthogonal component _译注: 或译 > **示例** >* [Incremental PCA](https://scikit-learn.org/stable/auto_examples/decomposition/plot_incremental_pca.html#sphx-glr-auto-examples-decomposition-plot-incremental-pca-py) -### 2.5.1.3. PCA 使用随机SVD +### 2.5.1.3. 基于随机化SVD的PCA 通过丢弃具有较低奇异值的奇异向量的分量,将数据降维到低维空间并保留大部分方差信息是非常有意义的。 @@ -413,4 +413,4 @@ LDA 的图形模型是一个三级生成模型: >* [“Online Learning for Latent Dirichlet Allocation”](https://www.cs.princeton.edu/~blei/papers/HoffmanBleiBach2010b.pdf) M. Hoffman, D. Blei, F. Bach, 2010 >* [“Stochastic Variational Inference”](http://www.columbia.edu/~jwp2128/Papers/HoffmanBleiWangPaisley2013.pdf) M. Hoffman, D. Blei, C. Wang, J. Paisley, 2013 -参考 [Neighborhood Components Analysis](https://scikit-learn.org/stable/modules/neighbors.html#nca-dim-reduction) 的降维方式. +参考 [Neighborhood Components Analysis](7.html#1662-降维) 的降维方式.