提交 1149f187 编写于 作者: 片刻小哥哥's avatar 片刻小哥哥

更新GitHub地址

上级 04b5a421
......@@ -31,5 +31,5 @@ env:
- GH_UN=jiangzhonglian
- GH_EMAIL=jiang-s@163.com
- GH_USER=apachecn
- GH_REPO=NLP-with-PyTorch
- GH_REPO=nlp-pytorch-zh
- GH_BRANCH=gh-pages
......@@ -31,11 +31,11 @@
机器学习中的监督,或者简单的监督学习,是指将目标(被预测的内容)的ground truth用于观察(输入)的情况。例如,在文档分类中,目标是一个分类标签,观察(输入)是一个文档。例如,在机器翻译中,观察(输入)是一种语言的句子,目标是另一种语言的句子。通过对输入数据的理解,我们在图1-1中演示了监督学习范式。 ![nlpp_0101](img/58c13549534aa235ea3328c43765c9f9.jpg "图1-1 监督学习范式,一种从标记输入数据中学习的概念框架。")
我们可以将监督学习范式分解为六个主要概念,如图1-1所示: Observations: 观察是我们想要预测的东西。我们用x表示观察值。我们有时把观察值称为“输入”。 Targets: 目标是与观察相对应的标签。它通常是被预言的事情。按照机器学习/深度学习中的标准符号,我们用y表示这些。有时,这被称为ground truth 。 Model: 模型是一个数学表达式或函数,它接受一个观察值x,并预测其目标标签的值。 Parameters: 有时也称为权重,这些参数化模型。标准使用的符号w(权重)或ŵ。 Predictions: 预测,也称为估计,是模型在给定观测值的情况下所猜测目标的值。我们用一个“hat”表示这些。所以,目标y的预测用ŷ来表示。 Loss function: 损失函数是比较预测与训练数据中观测目标之间的距离的函数。给定一个目标及其预测,损失函数将分配一个称为损失的标量实值。损失值越低,模型对目标的预测效果越好。我们用L表示损失函数。
我们可以将监督学习范式分解为六个主要概念,如图1-1所示: Observations: 观察是我们想要预测的东西。我们用x表示观察值。我们有时把观察值称为“输入”。 Targets: 目标是与观察相对应的标签。它通常是被预言的事情。按照机器学习/深度学习中的标准符号,我们用y表示这些。有时,这被称为ground truth 。 Model: 模型是一个数学表达式或函数,它接受一个观察值x,并预测其目标标签的值。 Parameters: 有时也称为权重,这些参数化模型。标准使用的符号w(权重)或 $$\hat w$$。 Predictions: 预测,也称为估计,是模型在给定观测值的情况下所猜测目标的值。我们用一个“hat”表示这些。所以,目标y的预测用$$\hat y$$来表示。 Loss function: 损失函数是比较预测与训练数据中观测目标之间的距离的函数。给定一个目标及其预测,损失函数将分配一个称为损失的标量实值。损失值越低,模型对目标的预测效果越好。我们用L表示损失函数。
虽然在NLP /深度学习建模或编写本书时,这在数学上并不是正式有效,但我们将正式重述监督学习范例,以便为该领域的新读者提供标准术语,以便他们拥有熟悉arXiv研究论文中的符号和写作风格。
考虑一个数据集 $$D=\{X_i,y_i\}_{i=1}^n$$,有n个例子。给定这个数据集,我们想要学习一个由权值w参数化的函数(模型)f,也就是说,我们对f的结构做一个假设,给定这个结构,权值w的学习值将充分表征模型。对于一个给定的输入X,模型预测ŷ作为目标: $$ŷ =f(X;W)$$ 在监督学习中,对于训练例子,我们知道观察的真正目标y。这个实例的损失将为 $$L(y,ŷ)$$ 。然后,监督学习就变成了一个寻找最优参数/权值w的过程,从而使所有n个例子的累积损失最小化。
考虑一个数据集 $$D=\{X_i,y_i\}_{i=1}^n$$,有n个例子。给定这个数据集,我们想要学习一个由权值w参数化的函数(模型)f,也就是说,我们对f的结构做一个假设,给定这个结构,权值w的学习值将充分表征模型。对于一个给定的输入X,模型预测 $$\hat y$$ 作为目标: $$\hat y =f(X;W)$$ 在监督学习中,对于训练例子,我们知道观察的真正目标y。这个实例的损失将为 $$L(y,\hat y)$$ 。然后,监督学习就变成了一个寻找最优参数/权值w的过程,从而使所有n个例子的累积损失最小化。
* * *
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册