Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
nlp-pytorch-zh
提交
1149f187
N
nlp-pytorch-zh
项目概览
OpenDocCN
/
nlp-pytorch-zh
通知
17
Star
2
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
N
nlp-pytorch-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
1149f187
编写于
1月 09, 2020
作者:
片刻小哥哥
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
更新GitHub地址
上级
04b5a421
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
3 addition
and
3 deletion
+3
-3
.travis.yml
.travis.yml
+1
-1
docs/1.md
docs/1.md
+2
-2
未找到文件。
.travis.yml
浏览文件 @
1149f187
...
...
@@ -31,5 +31,5 @@ env:
-
GH_UN=jiangzhonglian
-
GH_EMAIL=jiang-s@163.com
-
GH_USER=apachecn
-
GH_REPO=
NLP-with-PyTorc
h
-
GH_REPO=
nlp-pytorch-z
h
-
GH_BRANCH=gh-pages
docs/1.md
浏览文件 @
1149f187
...
...
@@ -31,11 +31,11 @@
机器学习中的监督,或者简单的监督学习,是指将目标(被预测的内容)的ground truth用于观察(输入)的情况。例如,在文档分类中,目标是一个分类标签,观察(输入)是一个文档。例如,在机器翻译中,观察(输入)是一种语言的句子,目标是另一种语言的句子。通过对输入数据的理解,我们在图1-1中演示了监督学习范式。 !
[
nlpp_0101
](
img/58c13549534aa235ea3328c43765c9f9.jpg
"图1-1 监督学习范式,一种从标记输入数据中学习的概念框架。"
)
我们可以将监督学习范式分解为六个主要概念,如图1-1所示: Observations: 观察是我们想要预测的东西。我们用x表示观察值。我们有时把观察值称为“输入”。 Targets: 目标是与观察相对应的标签。它通常是被预言的事情。按照机器学习/深度学习中的标准符号,我们用y表示这些。有时,这被称为ground truth 。 Model: 模型是一个数学表达式或函数,它接受一个观察值x,并预测其目标标签的值。 Parameters: 有时也称为权重,这些参数化模型。标准使用的符号w(权重)或
ŵ。 Predictions: 预测,也称为估计,是模型在给定观测值的情况下所猜测目标的值。我们用一个“hat”表示这些。所以,目标y的预测用ŷ
来表示。 Loss function: 损失函数是比较预测与训练数据中观测目标之间的距离的函数。给定一个目标及其预测,损失函数将分配一个称为损失的标量实值。损失值越低,模型对目标的预测效果越好。我们用L表示损失函数。
我们可以将监督学习范式分解为六个主要概念,如图1-1所示: Observations: 观察是我们想要预测的东西。我们用x表示观察值。我们有时把观察值称为“输入”。 Targets: 目标是与观察相对应的标签。它通常是被预言的事情。按照机器学习/深度学习中的标准符号,我们用y表示这些。有时,这被称为ground truth 。 Model: 模型是一个数学表达式或函数,它接受一个观察值x,并预测其目标标签的值。 Parameters: 有时也称为权重,这些参数化模型。标准使用的符号w(权重)或
$$
\h
at w$$。 Predictions: 预测,也称为估计,是模型在给定观测值的情况下所猜测目标的值。我们用一个“hat”表示这些。所以,目标y的预测用$$
\h
at y$$
来表示。 Loss function: 损失函数是比较预测与训练数据中观测目标之间的距离的函数。给定一个目标及其预测,损失函数将分配一个称为损失的标量实值。损失值越低,模型对目标的预测效果越好。我们用L表示损失函数。
虽然在NLP /深度学习建模或编写本书时,这在数学上并不是正式有效,但我们将正式重述监督学习范例,以便为该领域的新读者提供标准术语,以便他们拥有熟悉arXiv研究论文中的符号和写作风格。
考虑一个数据集 $$D=
\{
X_i,y_i
\}
_{i=1}^n$$,有n个例子。给定这个数据集,我们想要学习一个由权值w参数化的函数(模型)f,也就是说,我们对f的结构做一个假设,给定这个结构,权值w的学习值将充分表征模型。对于一个给定的输入X,模型预测
ŷ作为目标: $$ŷ =f(X;W)$$ 在监督学习中,对于训练例子,我们知道观察的真正目标y。这个实例的损失将为 $$L(y,ŷ
)$$ 。然后,监督学习就变成了一个寻找最优参数/权值w的过程,从而使所有n个例子的累积损失最小化。
考虑一个数据集 $$D=
\{
X_i,y_i
\}
_{i=1}^n$$,有n个例子。给定这个数据集,我们想要学习一个由权值w参数化的函数(模型)f,也就是说,我们对f的结构做一个假设,给定这个结构,权值w的学习值将充分表征模型。对于一个给定的输入X,模型预测
$$
\h
at y$$ 作为目标: $$
\h
at y =f(X;W)$$ 在监督学习中,对于训练例子,我们知道观察的真正目标y。这个实例的损失将为 $$L(y,
\h
at y
)$$ 。然后,监督学习就变成了一个寻找最优参数/权值w的过程,从而使所有n个例子的累积损失最小化。
* * *
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录