Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
GitCode官方
Python专题
提交
360be919
Python专题
项目概览
GitCode官方
/
Python专题
通知
4266
Star
1620
Fork
355
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
1
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
Python专题
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
1
Issue
1
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
360be919
编写于
6月 03, 2021
作者:
M
MaoXianxin
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
10倍GPT-3!全球最大预训练模型“悟道2.0”问世:9项世界第一,多项任务逼近图灵测试
上级
66eff419
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
5 addition
and
5 deletion
+5
-5
10倍GPT-3!全球最大预训练模型“悟道2.0”问世:9项世界第一,多项任务逼近图灵测试.md
10倍GPT-3!全球最大预训练模型“悟道2.0”问世:9项世界第一,多项任务逼近图灵测试.md
+5
-5
未找到文件。
10倍GPT-3!全球最大预训练模型“悟道2.0”问世:9项世界第一,多项任务逼近图灵测试.md
浏览文件 @
360be919
...
...
@@ -6,7 +6,7 @@
2021年1月,距离GPT-3问世不足一年,Google重磅推出Switch Transformer模型,将参数量提升到1.6万亿,成为人类历史上首个万亿级语言模型。然而,人们对预训练语言模型的想象远不止如此,随着算力的提升,大数据的涌现,越来越多学术机构和企业加入”炼大模型“的行列,在这场激烈的军备赛中,谁将成为下一位赢家?
6月1日,2021北京智源大会在中关村国家自主创新示范区会议中心如期拉开大幕,开幕式上,清华大学教授,智源研究院学术副院长唐杰重磅发布了超大规模智能模型
**“悟道2.0”。**
6月1日,2021北京智源大会在中关村国家自主创新示范区会议中心如期拉开大幕,开幕式上,清华大学教授,智源研究院学术副院长唐杰重磅发布了超大规模智能模型
“悟道2.0”。
![](
https://maoxianxin1996.oss-accelerate.aliyuncs.com/codechina/20210603173505.png
)
...
...
@@ -63,13 +63,13 @@ FastMoE在提升预训练模型参数量方面有着巨大的潜力。
![](
https://maoxianxin1996.oss-accelerate.aliyuncs.com/codechina/20210603173656.png
)
**高效模型:**
首创纯非欧空间模型,50%参数量即可达到近似欧式模型的效果。
高效模型:
首创纯非欧空间模型,50%参数量即可达到近似欧式模型的效果。
**高效训练:**
首创预训练语言模型融合框架“知识继承”,可使训练时间缩短 27.3%,速度提升37.5%。它的核心思想是提取已有的小预训练语言模型模型蕴藏的“隐式”知识,并将其注入超大规模模型当中。
高效训练:
首创预训练语言模型融合框架“知识继承”,可使训练时间缩短 27.3%,速度提升37.5%。它的核心思想是提取已有的小预训练语言模型模型蕴藏的“隐式”知识,并将其注入超大规模模型当中。
**高效微调:**
首创基于检索的半监督少样本的微调算法Prompt,只要需训练0.2%数据即可达到完整数据训练90%的效果。
高效微调:
首创基于检索的半监督少样本的微调算法Prompt,只要需训练0.2%数据即可达到完整数据训练90%的效果。
**高效推理:**
首创低资源大模型推理系统,单机单卡GPU即可以进行千亿参数规模的模型推理。
高效推理:
首创低资源大模型推理系统,单机单卡GPU即可以进行千亿参数规模的模型推理。
## 悟道2.0创新算法,刷新9项纪录
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录