Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
时间很短,加油(ง •̀_•
ml-nlp
提交
40754285
M
ml-nlp
项目概览
时间很短,加油(ง •̀_•
/
ml-nlp
与 Fork 源项目一致
从无法访问的项目Fork
通知
1
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
M
ml-nlp
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
未验证
提交
40754285
编写于
9月 28, 2019
作者:
N
NLP-LOVE
提交者:
GitHub
9月 28, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Finished BERT
上级
372b454c
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
2 addition
and
1 deletion
+2
-1
NLP/README.md
NLP/README.md
+2
-1
未找到文件。
NLP/README.md
浏览文件 @
40754285
...
...
@@ -14,9 +14,10 @@
| NLP |
[
16.5 序列到序列模型(seq2seq)
](
https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.5%20seq2seq
)
|
[
@mantchs
](
https://github.com/NLP-LOVE
)
| 448966528 |
| NLP |
[
16.6 注意力机制(Attention Mechanism)
](
https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.6%20Attention
)
|
[
@mantchs
](
https://github.com/NLP-LOVE
)
| 448966528 |
| NLP |
[
16.7 Transformer模型
](
https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.7%20Transformer
)
|
[
@mantchs
](
https://github.com/NLP-LOVE
)
| 448966528 |
| NLP |
16.8 BERT模型 | |
|
| NLP |
[
16.8 BERT模型
](
https://github.com/NLP-LOVE/ML-NLP/tree/master/NLP/16.8%20BERT
)
|
[
@mantchs
](
https://github.com/NLP-LOVE
)
| 448966528
|
| NLP | 16.9 XLNet模型 | | |
> 欢迎大家加入!共同完善此项目!<a target="_blank" href="//shang.qq.com/wpa/qunwpa?idkey=863f915b9178560bd32ca07cd090a7d9e6f5f90fcff5667489697b1621cecdb3"><img border="0" src="http://pub.idqqimg.com/wpa/images/group.png" alt="NLP面试学习群" title="NLP面试学习群"></a>
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录