提交 aa8d1e6e 编写于 作者: A alouhahaha

figure label bug fix

上级 437aa67c
......@@ -81,7 +81,7 @@ BERT采用了Encoder结构,`attention_mask`为全1的向量,即每个token
![Teaser image](images/finetune.PNG)
2:训练流程示意图
3:训练流程示意图
## 样例代码
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册