README.md 3.1 KB
Newer Older
Z
zhangwenhui03 已提交
1
# 基于skip-gram的word2vector模型
Q
Qiao Longfei 已提交
2

Z
zhangwenhui03 已提交
3
以下是本例的简要目录结构及说明:
Q
Qiao Longfei 已提交
4

Z
zhangwenhui03 已提交
5 6
```text
.
Z
zhangwenhui03 已提交
7 8 9
├── cluster_train.py    # 分布式训练函数
├── cluster_train.sh    # 本地模拟多机脚本
├── train.py            # 训练函数
Z
zhangwenhui03 已提交
10 11 12 13 14 15 16
├── infer.py            # 预测脚本
├── net.py              # 网络结构
├── preprocess.py       # 预处理脚本,包括构建词典和预处理文本
├── reader.py           # 训练阶段的文本读写
├── README.md           # 使用说明
├── train.py            # 训练函数
└── utils.py            # 通用函数
Q
Qiao Longfei 已提交
17

Z
zhangwenhui03 已提交
18 19 20 21
```

## 介绍
本例实现了skip-gram模式的word2vector模型。
Q
Qiao Longfei 已提交
22 23


Z
zhangwenhui03 已提交
24 25 26 27 28 29 30 31
## 数据下载
全量数据集使用的是来自1 Billion Word Language Model Benchmark的(http://www.statmt.org/lm-benchmark) 的数据集.

```bash
wget http://www.statmt.org/lm-benchmark/1-billion-word-language-modeling-benchmark-r13output.tar.gz
```

备用数据地址下载命令如下
Q
Qiao Longfei 已提交
32 33

```bash
Z
zhangwenhui03 已提交
34
wget https://paddlerec.bj.bcebos.com/word2vec/1-billion-word-language-modeling-benchmark-r13output.tar
Q
Qiao Longfei 已提交
35
```
J
JiabinYang 已提交
36

Z
zhangwenhui03 已提交
37
为了方便快速验证,我们也提供了经典的text8样例数据集,包含1700w个词。 下载命令如下
Z
zhangwenhui03 已提交
38

J
JiabinYang 已提交
39
```bash
Z
zhangwenhui03 已提交
40
wget https://paddlerec.bj.bcebos.com/word2vec/text.tar
J
JiabinYang 已提交
41
```
Q
Qiao Longfei 已提交
42 43


Z
zhangwenhui03 已提交
44
## 数据预处理
Z
zhangwenhui03 已提交
45 46 47
以样例数据集为例进行预处理。全量数据集注意解压后以training-monolingual.tokenized.shuffled 目录为预处理目录,和样例数据集的text目录并列。

词典格式: 词<空格>词频。注意低频词用'<UNK>'表示
Q
Qiao Longfei 已提交
48

Z
zhangwenhui03 已提交
49 50 51 52 53 54 55 56 57 58 59 60 61
可以按格式自建词典,如果自建词典跳过第一步。
```
the 1061396
of 593677
and 416629
one 411764
in 372201
a 325873
<UNK> 324608
to 316376
zero 264975
nine 250430
```
Q
Qiao Longfei 已提交
62

Z
zhangwenhui03 已提交
63
第一步根据英文语料生成词典,中文语料可以通过修改text_strip方法自定义处理方法。
Q
Qiao Longfei 已提交
64

Q
Qiao Longfei 已提交
65
```bash
Z
zhangwenhui03 已提交
66
python preprocess.py --build_dict --build_dict_corpus_dir data/text/ --dict_path data/test_build_dict
Q
Qiao Longfei 已提交
67 68
```

Z
zhangwenhui03 已提交
69
第二步根据词典将文本转成id, 同时进行downsample,按照概率过滤常见词。
Q
Qiao Longfei 已提交
70 71

```bash
Z
zhangwenhui03 已提交
72
python preprocess.py --filter_corpus --dict_path data/test_build_dict --input_corpus_dir data/text/ --output_corpus_dir data/convert_text8 --min_count 5 --downsample 0.001
Q
Qiao Longfei 已提交
73 74
```

Z
zhangwenhui03 已提交
75
## 训练
Z
zhangwenhui03 已提交
76
具体的参数配置可运行
Q
Qiao Longfei 已提交
77

Z
zhangwenhui03 已提交
78 79 80 81 82 83

```bash
python train.py -h
```

单机多线程训练
Q
Qiao Longfei 已提交
84
```bash
Z
zhangwenhui03 已提交
85
OPENBLAS_NUM_THREADS=1 CPU_NUM=5 python train.py --train_data_dir data/convert_text8 --dict_path data/test_build_dict --num_passes 10 --batch_size 100 --model_output_dir v1_cpu5_b100_lr1dir --base_lr 1.0 --print_batch 1000 --with_speed --is_sparse
Q
Qiao Longfei 已提交
86 87
```

Z
zhangwenhui03 已提交
88 89 90 91 92 93
本地单机模拟多机训练

```bash
sh cluster_train.sh
```

Z
zhangwenhui03 已提交
94 95
## 预测
测试集下载命令如下
J
JiabinYang 已提交
96 97

```bash
Z
zhangwenhui03 已提交
98 99 100 101
#全量数据集测试集
wget https://paddlerec.bj.bcebos.com/word2vec/test_dir.tar
#样本数据集测试集
wget https://paddlerec.bj.bcebos.com/word2vec/test_mid_dir.tar
J
JiabinYang 已提交
102 103
```

Z
zhangwenhui03 已提交
104
预测命令,注意词典名称需要加后缀"_word_to_id_", 此文件是训练阶段生成的。
J
JiabinYang 已提交
105
```bash
Z
zhangwenhui03 已提交
106
python infer.py --infer_epoch --test_dir data/test_mid_dir/ --dict_path data/test_build_dict_word_to_id_ --batch_size 20000 --model_dir v1_cpu5_b100_lr1dir/  --start_index 0
J
JiabinYang 已提交
107
```