未验证 提交 1b498f13 编写于 作者: C Chang Xu 提交者: GitHub

fix_demo (#1167)

* fix_demo

* fix_demo
上级 5142fc6b
......@@ -27,8 +27,8 @@ Quantization:
蒸馏参数主要设置蒸馏节点(`node`)和教师预测模型路径,如下所示:
```yaml
Distillation:
# ahpha: 蒸馏loss所占权重;可输入多个数值,支持不同节点之间使用不同的ahpha值
lambda: 1.0
# alpha: 蒸馏loss所占权重;可输入多个数值,支持不同节点之间使用不同的ahpha值
alpha: 1.0
# loss: 蒸馏loss算法;可输入多个loss,支持不同节点之间使用不同的loss算法
loss: l2
# node: 蒸馏节点,即某层输出的变量名称,可以选择:
......
......@@ -111,6 +111,6 @@ if __name__ == '__main__':
train_config=train_config,
train_dataloader=train_dataloader,
eval_callback=eval_function,
eval_dataloader=reader_wrapper(eval_reader(data_dir, args.batch_size)), args.input_name)
eval_dataloader=reader_wrapper(eval_reader(data_dir, args.batch_size), args.input_name))
ac.compress()
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册