Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
d2l-zh
提交
bed2374a
D
d2l-zh
项目概览
OpenDocCN
/
d2l-zh
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
d2l-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
bed2374a
编写于
6月 04, 2018
作者:
A
Aston Zhang
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
add word2vec
上级
c48df412
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
38 addition
and
39 deletion
+38
-39
build/environment.yml
build/environment.yml
+1
-1
chapter_natural-language-processing/word2vec.md
chapter_natural-language-processing/word2vec.md
+37
-38
未找到文件。
build/environment.yml
浏览文件 @
bed2374a
...
...
@@ -6,4 +6,4 @@ dependencies:
-
pandas
-
pip
:
-
requests
-
mxnet
>=1.2.0b20180427
-
mxnet
==1.2.0
chapter_natural-language-processing/word2vec.md
浏览文件 @
bed2374a
...
...
@@ -8,7 +8,7 @@
## 为何不采用one-hot向量
我们在
[
“循环神经网络——从零开始”
](
../chapter_recurrent-neural-networks/rnn-scratch.md
)
一节中使用one-hot向量表示字符,并以字符为词。回忆一下,假设词典中不同词的数量为$N$,每个词可以和从0到$N-1$的连续整数一一对应。这些与词对应的整数也叫词的索引。
我们在
[
“循环神经网络——从零开始”
](
../chapter_recurrent-neural-networks/rnn-scratch.md
)
一节中使用one-hot向量表示字符,并以字符为词。回忆一下,假设词典中不同词的数量
(词典大小)
为$N$,每个词可以和从0到$N-1$的连续整数一一对应。这些与词对应的整数也叫词的索引。
假设一个词的索引为$i$,为了得到该词的one-hot向量表示,我们创建一个全0的长为$N$的向量,并将其第$i$位设成1。
然而,使用one-hot词向量通常并不是一个好选择。一个主要的原因是,one-hot词向量无法表达不同词之间的相似度,例如余弦相似度。由于任意一对向量$
\b
oldsymbol{x},
\b
oldsymbol{y}
\i
n
\m
athbb{R}^d$的余弦相似度为
...
...
@@ -62,7 +62,7 @@ $$\frac{\partial \text{log} \mathbb{P}(w_o \mid w_c)}{\partial \mathbf{v}_c} = \
$$
\f
rac{
\p
artial
\t
ext{log}
\m
athbb{P}(w_o
\m
id w_c)}{
\p
artial
\m
athbf{v}_c} =
\m
athbf{u}_o -
\s
um_{j
\i
n
\m
athcal{V}}
\m
athbb{P}(w_j
\m
id w_c)
\m
athbf{u}_j.$$
随机采样的子序列有关其他词向量的梯度同理可得。训练模型时,每一次迭代实际上是用这些梯度来迭代子序列中出现过的中心词和背景词的向量。训练结束后,对于词典中的任一索引为$i$的词,我们均得到该词作为中心词和背景词的两组词向量$
\m
athbf{v}_i$和$
\m
athbf{u}_i$。
实践中,我们通常
会使用跳字模型的中心词向量。
随机采样的子序列有关其他词向量的梯度同理可得。训练模型时,每一次迭代实际上是用这些梯度来迭代子序列中出现过的中心词和背景词的向量。训练结束后,对于词典中的任一索引为$i$的词,我们均得到该词作为中心词和背景词的两组词向量$
\m
athbf{v}_i$和$
\m
athbf{u}_i$。
在自然语言处理应用中,我们
会使用跳字模型的中心词向量。
...
...
@@ -80,20 +80,20 @@ $$ -\sum_{t=1}^T \text{log} \mathbb{P}(w^{(t)} \mid w^{(t-m)}, \ldots, w^{(t
我们可以用$
\m
athbf{v}$和$
\m
athbf{u}$分别表示背景词和中心词的向量(注意符号和跳字模型中的不同)。换言之,对于词典中索引为$i$的词,它在作为背景词和中心词时的向量表示分别是$
\m
athbf{v}_i$和$
\m
athbf{u}_i$。而词典中所有词的这两种向量正是连续词袋模型所要学习的模型参数。为了将模型参数植入损失函数,我们需要使用模型参数表达损失函数中的给定背景词生成中心词的概率。设中心词$w_c$在词典中索引为$c$,背景词$w_{o_1},
\l
dots, w_{o_{2m}}$在词典中索引为$o_1,
\l
dots, o_{2m}$,损失函数中的给定背景词生成中心词的概率可以通过softmax函数定义为
$$
\m
athbb{P}(w_c
\m
id w_{o_1},
\l
dots, w_{o_{2m}}) =
\f
rac{
\t
ext{exp}
[
\m
athbf{u}_c^
\t
op (
\m
athbf{v}_{o_1} +
\l
dots +
\m
athbf{v}_{o_{2m}}) /(2m) ]}{
\s
um_{i
\i
n
\m
athcal{V}}
\t
ext{exp}[
\m
athbf{u}_i^
\t
op (
\m
athbf{v}_{o_1} +
\l
dots +
\m
athbf{v}_{o_{2m}}) /(2m)]
}.$$
$$
\m
athbb{P}(w_c
\m
id w_{o_1},
\l
dots, w_{o_{2m}}) =
\f
rac{
\t
ext{exp}
\l
eft(
\m
athbf{u}_c^
\t
op (
\m
athbf{v}_{o_1} +
\l
dots +
\m
athbf{v}_{o_{2m}}) /(2m)
\r
ight)}{
\s
um_{i
\i
n
\m
athcal{V}}
\t
ext{exp}
\l
eft(
\m
athbf{u}_i^
\t
op (
\m
athbf{v}_{o_1} +
\l
dots +
\m
athbf{v}_{o_{2m}}) /(2m)
\r
ight)
}.$$
和跳字模型一样,当序列长度$T$较大时,我们通常在每次迭代时随机采样一个较短的子序列来计算有关该子序列的损失。然后,根据该损失计算词向量的梯度并迭代词向量。
通过微分,我们可以计算出上式中条件概率的对数有关任一背景词向量$
\m
athbf{v}_{o_i}$($i = 1,
\l
dots, 2m$)的梯度为:
$$
\f
rac{
\p
artial
\t
ext{log}
\m
athbb{P}(w_c
\m
id w_{o_1},
\l
dots, w_{o_{2m}})}{
\p
artial
\m
athbf{v}_{o_i}} =
\f
rac{1}{2m}
(
\m
athbf{u}_c -
\s
um_{j
\i
n
\m
athcal{V}}
\f
rac{
\t
ext{exp}(
\m
athbf{u}_j^
\t
op
\m
athbf{v}_c)}{
\s
um_{i
\i
n
\m
athcal{V}}
\t
ext{exp}(
\m
athbf{u}_i^
\t
op
\m
athbf{v}_c)}
\m
athbf{u}_j
).$$
$$
\f
rac{
\p
artial
\t
ext{log}
\m
athbb{P}(w_c
\m
id w_{o_1},
\l
dots, w_{o_{2m}})}{
\p
artial
\m
athbf{v}_{o_i}} =
\f
rac{1}{2m}
\l
eft(
\m
athbf{u}_c -
\s
um_{j
\i
n
\m
athcal{V}}
\f
rac{
\t
ext{exp}(
\m
athbf{u}_j^
\t
op
\m
athbf{v}_c)}{
\s
um_{i
\i
n
\m
athcal{V}}
\t
ext{exp}(
\m
athbf{u}_i^
\t
op
\m
athbf{v}_c)}
\m
athbf{u}_j
\r
ight
).$$
该式也可写作
$$
\f
rac{
\p
artial
\t
ext{log}
\m
athbb{P}(w_c
\m
id w_{o_1},
\l
dots, w_{o_{2m}})}{
\p
artial
\m
athbf{v}_{o_i}} =
\f
rac{1}{2m}
(
\m
athbf{u}_c -
\s
um_{j
\i
n
\m
athcal{V}}
\m
athbb{P}(w_j
\m
id w_c)
\m
athbf{u}_j
).$$
$$
\f
rac{
\p
artial
\t
ext{log}
\m
athbb{P}(w_c
\m
id w_{o_1},
\l
dots, w_{o_{2m}})}{
\p
artial
\m
athbf{v}_{o_i}} =
\f
rac{1}{2m}
\l
eft(
\m
athbf{u}_c -
\s
um_{j
\i
n
\m
athcal{V}}
\m
athbb{P}(w_j
\m
id w_c)
\m
athbf{u}_j
\r
ight
).$$
随机采样的子序列有关其他词向量的梯度同理可得。和跳字模型一样,训练结束后,对于词典中的任一索引为$i$的词,我们均得到该词作为背景词和中心词的两组词向量$
\m
athbf{v}_i$和$
\m
athbf{u}_i$。
实践中,我们通常
会使用连续词袋模型的背景词向量。
随机采样的子序列有关其他词向量的梯度同理可得。和跳字模型一样,训练结束后,对于词典中的任一索引为$i$的词,我们均得到该词作为背景词和中心词的两组词向量$
\m
athbf{v}_i$和$
\m
athbf{u}_i$。
在自然语言处理应用中,我们
会使用连续词袋模型的背景词向量。
...
...
@@ -101,9 +101,7 @@ $$\frac{\partial \text{log} \mathbb{P}(w_c \mid w_{o_1}, \ldots, w_{o_{2m}})}{\p
## 近似训练法
我们可以看到,无论是跳字模型还是连续词袋模型,每一步梯度计算的开销与词典$
\m
athcal{V}$的大小相关。显然,当词典较大时,例如几十万到上百万,这种训练方法的计算开销会较大。所以,使用上述训练方法在实践中是有难度的。
我们将使用近似的方法来计算这些梯度,从而减小计算开销。常用的近似训练法包括负采样和层序softmax。
我们可以看到,无论是跳字模型还是连续词袋模型,每一步梯度计算的开销与词典$
\m
athcal{V}$的大小相关。当词典较大时,例如几十万到上百万,这种训练方法的计算开销会较大。因此,我们将使用近似的方法来计算这些梯度,从而减小计算开销。常用的近似训练法包括负采样和层序softmax。
...
...
@@ -111,82 +109,83 @@ $$\frac{\partial \text{log} \mathbb{P}(w_c \mid w_{o_1}, \ldots, w_{o_{2m}})}{\p
我们以跳字模型为例讨论负采样。
词典$
\m
athcal{V}$大小之所以会在目标函数中出现,是因为中心词$w_c$生成背景词$w_o$的概率$
\m
athbb{P}(w_o
\m
id w_c)$使用了softmax,而softmax正是考虑了背景词可能是词典中的任一词,并体现在softmax的
分母上。
实际上,词典$
\m
athcal{V}$的大小之所以会在损失中出现,是因为给定中心词$w_c$生成背景词$w_o$的条件概率$
\m
athbb{P}(w_o
\m
id w_c)$使用了softmax运算,而softmax运算正是考虑了背景词可能是词典中的任一词,并体现在
分母上。
我们不妨换个角度,假设中心词$w_c$生成背景词$w_o$由以下相互独立事件联合组成来近似
不妨换个角度考虑给定中心词生成背景词的条件概率。假设中心词$w_c$生成背景词$w_o$由以下相互独立事件联合组成来近似:
*
中心词$w_c$和背景词$w_o$同时出现
在该训练数据窗口
*
中心词$w_c$和第1个噪声词$w_1$不同时出现在该
训练数据窗口(噪声词$w_1$按噪声词分布$
\m
athbb{P}(w)$随机生成,假设一定和$w_c$不同时出现在该训练数据窗口)
*
中心词$w_c$和背景词$w_o$同时出现
时间窗口。
*
中心词$w_c$和第1个噪声词$w_1$不同时出现在该
时间窗口(噪声词$w_1$按噪声词分布$
\m
athbb{P}(w)$随机生成,且假设一定和$w_c$不同时出现在该时间窗口)。
*
...
*
中心词$w_c$和第$K$个噪声词$w_K$不同时出现在该
训练数据窗口(噪声词$w_K$按噪声词分布$
\m
athbb{P}(w)$随机生成,假设一定和$w_c$不同时出现在该训练数据窗口)
*
中心词$w_c$和第$K$个噪声词$w_K$不同时出现在该
时间窗口(噪声词$w_K$按噪声词分布$
\m
athbb{P}(w)$随机生成,且假设一定和$w_c$不同时出现在该时间窗口)。
我们可以使用$
\s
igma(x) = 1/(1+
\t
ext{exp}(-x))$函数来表达中心词$w_c$和背景词$w_o$同时出现在该训练数据窗口的概率:
下面,
我们可以使用$
\s
igma(x) = 1/(1+
\t
ext{exp}(-x))$函数来表达中心词$w_c$和背景词$w_o$同时出现在该训练数据窗口的概率:
$$
\m
athbb{P}(D = 1
\m
id w_o, w_c) =
\s
igma(
\m
athbf{u}_o^
\t
op
\m
athbf{v}_c)$$
$$
\m
athbb{P}(D = 1
\m
id w_o, w_c) =
\s
igma(
\m
athbf{u}_o^
\t
op
\m
athbf{v}_c)
.
$$
那么,
中心词$w_c$生成背景词$w_o$的对数概率
可以近似为
那么,
给定中心词$w_c$生成背景词$w_o$的条件概率的对数
可以近似为
$$
\t
ext{log}
\m
athbb{P} (w_o
\m
id w_c) =
\t
ext{log}
[
\m
athbb{P}(D = 1
\m
id w_o, w_c)
\p
rod_{k=1, w_k
\s
im
\m
athbb{P}(w)}^K
\m
athbb{P}(D = 0
\m
id w_k, w_c) ]
$$
$$
\t
ext{log}
\m
athbb{P} (w_o
\m
id w_c) =
\t
ext{log}
\l
eft(
\m
athbb{P}(D = 1
\m
id w_o, w_c)
\p
rod_{k=1, w_k
\s
im
\m
athbb{P}(w)}^K
\m
athbb{P}(D = 0
\m
id w_k, w_c)
\r
ight).
$$
假设噪声词$w_k$在词典中的索引为$i_k$,上式可改写为
$$
\t
ext{log}
\m
athbb{P} (w_o
\m
id w_c) =
\t
ext{log}
\f
rac{1}{1+
\t
ext{exp}(-
\m
athbf{u}_o^
\t
op
\m
athbf{v}_c)} +
\s
um_{k=1, w_k
\s
im
\m
athbb{P}(w)}^K
\t
ext{log} [1-
\f
rac{1}{1+
\t
ext{exp}(-
\m
athbf{u}_{i_k}^
\t
op
\m
athbf{v}_c)}] $$
$$
\t
ext{log}
\m
athbb{P} (w_o
\m
id w_c) =
\t
ext{log}
\f
rac{1}{1+
\t
ext{exp}(-
\m
athbf{u}_o^
\t
op
\m
athbf{v}_c)} +
\s
um_{k=1, w_k
\s
im
\m
athbb{P}(w)}^K
\t
ext{log}
\l
eft(1-
\f
rac{1}{1+
\t
ext{exp}(-
\m
athbf{u}_{i_k}^
\t
op
\m
athbf{v}_c)}
\r
ight). $$
因此,有关给定中心词$w_c$生成背景词$w_o$的损失是
因此,有关中心词$w_c$生成背景词$w_o$的损失函数是
$$ -
\t
ext{log}
\m
athbb{P} (w_o
\m
id w_c) = -
\t
ext{log}
\f
rac{1}{1+
\t
ext{exp}(-
\m
athbf{u}_o^
\t
op
\m
athbf{v}_c)} -
\s
um_{k=1, w_k
\s
im
\m
athbb{P}(w)}^K
\t
ext{log}
\f
rac{1}{1+
\t
ext{exp}(
\m
athbf{u}_{i_k}^
\t
op
\m
athbf{v}_c)}. $$
$$ -
\t
ext{log}
\m
athbb{P} (w_o
\m
id w_c) = -
\t
ext{log}
\f
rac{1}{1+
\t
ext{exp}(-
\m
athbf{u}_o^
\t
op
\m
athbf{v}_c)} -
\s
um_{k=1, w_k
\s
im
\m
athbb{P}(w)}^K
\t
ext{log}
\f
rac{1}{1+
\t
ext{exp}(
\m
athbf{u}_{i_k}^
\t
op
\m
athbf{v}_c)} $$
假设词典$
\m
athcal{V}$很大,每次迭代的计算开销由$
\m
athcal{O}(|
\m
athcal{V}|)$变为$
\m
athcal{O}(K)$。当我们把$K$取较小值时,负采样每次迭代的计算开销将较小。
当我们把$K$取较小值时,每次随机梯度下降的梯度计算开销将由$
\m
athcal{O}(|
\m
athcal{V}|)$降为$
\m
athcal{O}(K)$。
我们也可以对连续词袋模型进行负采样。有关背景词$w^{(t-m)},
\l
dots, w^{(t-1)}, w^{(t+1)},
\l
dots, w^{(t+m)}$生成中心词$w_c$的损失函数
当然,我们也可以对连续词袋模型进行负采样。有关给定背景词$w^{(t-m)},
\l
dots, w^{(t-1)}, w^{(t+1)},
\l
dots, w^{(t+m)}$生成中心词$w_c$的损失
$$-
\t
ext{log}
\m
athbb{P}(w^{(t)}
\m
id w^{(t-m)},
\l
dots, w^{(t-1)}, w^{(t+1)},
\l
dots, w^{(t+m)})$$
在负采样中可以近似为
$$-
\t
ext{log}
\f
rac{1}{1+
\t
ext{exp}
[-
\m
athbf{u}_c^
\t
op (
\m
athbf{v}_{o_1} +
\l
dots +
\m
athbf{v}_{o_{2m}}) /(2m)]} -
\s
um_{k=1, w_k
\s
im
\m
athbb{P}(w)}^K
\t
ext{log}
\f
rac{1}{1+
\t
ext{exp}[(
\m
athbf{u}_{i_k}^
\t
op (
\m
athbf{v}_{o_1} +
\l
dots +
\m
athbf{v}_{o_{2m}}) /(2m)]}
$$
$$-
\t
ext{log}
\f
rac{1}{1+
\t
ext{exp}
\l
eft(-
\m
athbf{u}_c^
\t
op (
\m
athbf{v}_{o_1} +
\l
dots +
\m
athbf{v}_{o_{2m}}) /(2m)
\r
ight)} -
\s
um_{k=1, w_k
\s
im
\m
athbb{P}(w)}^K
\t
ext{log}
\f
rac{1}{1+
\t
ext{exp}
\l
eft((
\m
athbf{u}_{i_k}^
\t
op (
\m
athbf{v}_{o_1} +
\l
dots +
\m
athbf{v}_{o_{2m}}) /(2m)
\r
ight)}.
$$
同样
地,当我们把$K$取较小值时,每次随机梯度下降的梯度计算开销将由$
\m
athcal{O}(|
\m
athcal{V}|)$降为$
\m
athcal{O}(K)$
。
同样
,当我们把$K$取较小值时,负采样每次迭代的计算开销将较小
。
## 层序softmax
层序softmax利用了二叉树。树的每个叶子节点代表着词典$
\m
athcal{V}$中的每个词。每个词$w_i$相应的词向量为$
\m
athbf{v}_i$。我们以下图为例,来描述层序softmax的工作机制。
层序softmax是另一种常用的近似训练法。它利用了二叉树这一数据结构。树的每个叶子节点代表着词典$
\m
athcal{V}$中的每个词。我们以图10.1为例来描述层序softmax的工作机制。
![
层序softmax。树的每个叶子节点代表着词典的每个词。
](
../img/hi-softmax.svg
)
![](
../img/hi-softmax.svg
)
假设$L(w)$为从二叉树的根节点到词$w$的叶子节点的路径(包括根和叶子节点)上的节点数。设$n(w,j)$为该路径上第$j$个节点,并设该节点的向量为$
\m
athbf{u}_{n(w,j)}$。以图10.1为例,$L(w_3) = 4$。设词典中的词$w_i$的词向量为$
\m
athbf{v}_i$。那么,跳字模型和连续词袋模型所需要计算的给定词$w_i$生成词$w$的条件概率为:
假设$L(w)$为从二叉树的根到代表词$w$的叶子节点的路径上的节点数,并设$n(w,i)$为该路径上第$i$个节点,该节点的向量为$
\m
athbf{u}_{n(w,i)}$。以上图为例,$L(w_3) = 4$。那么,跳字模型和连续词袋模型所需要计算的任意词$w_i$生成词$w$的概率为:
$$
\m
athbb{P}(w
\m
id w_i) =
\p
rod_{j=1}^{L(w)-1}
\s
igma
\l
eft(
\l
eft[n(w, j+1) =
\t
ext{leftChild}(n(w,j))
\r
ight]
\c
dot
\m
athbf{u}_{n(w,j)}^
\t
op
\m
athbf{v}_i
\r
ight),$$
$$
\m
athbb{P}(w
\m
id w_i) =
\p
rod_{j=1}^{L(w)-1}
\s
igma([n(w, j+1) =
\t
ext{leftChild}(n(w,j))]
\c
dot
\m
athbf{u}_{n(w,j)}^
\t
op
\m
athbf{v}_i)$$
其中$
\s
igma(x) = 1/(1+
\t
ext{exp}(-x))$,$
\t
ext{leftChild}(n)$是节点$n$的左孩子节点,如果判断$x$为真,$[x] = 1$;反之$[x] = -1$。由于$
\s
igma(x)+
\s
igma(-x) = 1$,给定词$w_i$生成词典$
\m
athcal{V}$中任一词的条件概率之和为1这一条件也将满足:
其中$
\s
igma(x) = 1/(1+
\t
ext{exp}(-x))$,如果$x$为真,$[x] = 1$;反之$[x] = -1$。
$$
\s
um_{w
\i
n
\m
athcal{V}}
\m
athbb{P}(w
\m
id w_i) = 1.$$
由于$
\s
igma(x)+
\s
igma(-x) = 1$,$w_i$生成词典中任何词的概率之和为1:
$$
\s
um_{w=1}^{
\m
athcal{V}}
\m
athbb{P}(w
\m
id w_i) = 1$$
让我们计算图10.1中给定词$w_i$生成$w_3$的条件概率。由于在二叉树中由根节点到叶子节点$w_3$的路径上需要向左、向右、再向左地遍历,我们得到
$$
\m
athbb{P}(w_3
\m
id w_i) =
\s
igma(
\m
athbf{u}_{n(w_3,1)}^
\t
op
\m
athbf{v}_i)
\c
dot
\s
igma(-
\m
athbf{u}_{n(w_3,2)}^
\t
op
\m
athbf{v}_i)
\c
dot
\s
igma(
\m
athbf{u}_{n(w_3,3)}^
\t
op
\m
athbf{v}_i).$$
让我们计算$w_i$生成$w_3$的概率,由于在二叉树中由根到$w_3$的路径上需要向左、向右、再向左地遍历,我们得到
$$
\m
athbb{P}(w_3
\m
id w_i) =
\s
igma(
\m
athbf{u}_{n(w_3,1)}^
\t
op
\m
athbf{v}_i))
\c
dot
\s
igma(-
\m
athbf{u}_{n(w_3,2)}^
\t
op
\m
athbf{v}_i))
\c
dot
\s
igma(
\m
athbf{u}_{n(w_3,3)}^
\t
op
\m
athbf{v}_i))$$
在使用softmax的跳字模型和连续词袋模型中,词向量和非叶子节点向量是需要学习的模型参数。假设词典$
\m
athcal{V}$很大,每次迭代的计算开销由$
\m
athcal{O}(|
\m
athcal{V}|)$下降至$
\m
athcal{O}(
\t
ext{log}_2|
\m
athcal{V}|)$。
我们可以使用随机梯度下降在跳字模型和连续词袋模型中不断迭代计算字典中所有词向量$
\m
athbf{v}$和非叶子节点的向量$
\m
athbf{u}$。每次迭代的计算开销由$
\m
athcal{O}(|
\m
athcal{V}|)$降为二叉树的高度$
\m
athcal{O}(
\t
ext{log}|
\m
athcal{V}|)$。
## 小结
word2vec工具中的跳字模型和连续词袋模型可以使用两种负采样和层序softmax减小训练
开销。
*
word2vec工具中的跳字模型和连续词袋模型通常使用近似训练法,例如负采样和层序softmax,从而减小训练的计算
开销。
## 练习
*
噪声词$
\m
athbb{P}(w)$在实际中被建议设为$w$的单字概率的3/4次方。为什么?(想想$0.99^{3/4}$和$0.01^{3/4}$的大小)
*
一些"the"和"a"之类的英文高频词会对结果产生什么影响?该如何处理?
(可参考
[
word2vec论文
](
https://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf
)
第2.3节)
*
如何训练包括例如"new york"在内的词组向量?
(可参考
[
word2vec论文
](
https://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf
)
第4节)
。
*
一些"the"和"a"之类的英文高频词会对结果产生什么影响?该如何处理?
可参考word2vec论文第2.3节 [2]。
*
如何训练包括例如"new york"在内的词组向量?
可参考word2vec论文第4节 [2]
。
## 扫码直达[讨论区](https://discuss.gluon.ai/t/topic/4203)
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录