提交 fed30ef6 编写于 作者: S slf12

save quanted model

上级 6f8b1402
......@@ -184,7 +184,7 @@ step:1 2722
epoch:9 acc:0.153
```
## 量化``基于skip-gram的word2vector模型``的训练流程保存的模型
## 量化``基于skip-gram的word2vector模型``
量化配置为:
```
......@@ -236,3 +236,5 @@ quant_embedding config {'quantize_type': 'abs_max', 'params_name': 'emb', 'quant
step:1 2719
epoch:9 acc:0.153
```
量化后的模型保存在``./output_quant``中,可看到量化后的参数``'emb.int8'``的大小为3.9M, 在``./v1_cpu5_b100_lr1dir``中可看到量化前的参数``'emb'``的大小为16M。
......@@ -82,6 +82,10 @@ def infer_epoch(args, vocab_size, test_reader, use_cuda, i2w):
if args.emb_quant:
config = {'params_name': 'emb', 'quantize_type': 'abs_max'}
copy_program = quant_embedding(copy_program, place, config)
fluid.io.save_persistables(
exe,
'./output_quant/pass-' + str(epoch),
main_program=copy_program)
accum_num = 0
accum_num_sum = 0.0
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册