提交 c6a01c69 编写于 作者: W wizardforcel

2020-10-19 21:54:21

上级 d2f4118f
......@@ -17,7 +17,7 @@ BERT的全称为Bidirectional Encoder Representation from Transformers,是一
2. 预训练后,只需要添加一个额外的输出层进行fine-tune,就可以在各种各样的下游任务中取得state-of-the-art的表现。在这过程中并不需要对BERT进行任务特定的结构修改。
![](/img/tf_2.0/bert.png)
![](img/bert.png)
总结一下:
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册