Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
d2l-zh
提交
7b3ee353
D
d2l-zh
项目概览
OpenDocCN
/
d2l-zh
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
d2l-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
7b3ee353
编写于
12月 27, 2018
作者:
P
PEGASUS
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix some errors
上级
64c3944b
变更
1
显示空白变更内容
内联
并排
Showing
1 changed file
with
6 addition
and
6 deletion
+6
-6
chapter_appendix/buy-gpu.md
chapter_appendix/buy-gpu.md
+6
-6
未找到文件。
chapter_appendix/buy-gpu.md
浏览文件 @
7b3ee353
...
...
@@ -4,19 +4,19 @@
## 选择GPU
目前独立GPU主要有AMD和N
vidia两家厂商。其中Nvidia在深度学习布局较早,对深度学习框架支持更好。因此,目前大家主要会选择Nvidia
的GPU。
目前独立GPU主要有AMD和N
VIDIA两家厂商。其中NVIDIA在深度学习布局较早,对深度学习框架支持更好。因此,目前大家主要会选择NVIDIA
的GPU。
N
vidia
有面向个人用户(例如GTX系列)和企业用户(例如Tesla系列)的两类GPU。这两类GPU的计算能力相当。然而,面向企业用户的GPU通常使用被动散热并增加了内存校验,从而更适合数据中心,并通常要比面向个人用户的GPU贵上10倍。
N
VIDIA
有面向个人用户(例如GTX系列)和企业用户(例如Tesla系列)的两类GPU。这两类GPU的计算能力相当。然而,面向企业用户的GPU通常使用被动散热并增加了内存校验,从而更适合数据中心,并通常要比面向个人用户的GPU贵上10倍。
如果你是拥有100台机器以上的大公司用户,通常可以考虑针对企业用户的N
vidia Tesla系列。如果你是拥有10到100台机器的实验室和中小公司用户,预算充足的情况下可以考虑Nvidia
DGX系列,否则可以考虑购买如Supermicro之类的性价比比较高的服务器,然后再购买安装GTX系列的GPU。
如果你是拥有100台机器以上的大公司用户,通常可以考虑针对企业用户的N
VIDIA Tesla系列。如果你是拥有10到100台机器的实验室和中小公司用户,预算充足的情况下可以考虑NVIDIA
DGX系列,否则可以考虑购买如Supermicro之类的性价比比较高的服务器,然后再购买安装GTX系列的GPU。
N
vidia一般每一两年发布一次新版本的GPU,例如2017
年发布的是GTX 1000系列。每个系列中会有数个不同的型号,分别对应不同的性能。
N
VIDIA一般每一两年发布一次新版本的GPU,例如2016
年发布的是GTX 1000系列。每个系列中会有数个不同的型号,分别对应不同的性能。
GPU的性能主要由以下三个参数构成:
1.
计算能力。通常我们关心的是32位浮点计算能力。16位浮点训练也开始流行,如果只做预测的话也可以用8位整数。
2.
内
存大小。当模型越大,或者训练时的批量越大时,所需要的GPU内存就越多。
3.
内
存带宽。只有当内存带宽足够时才能充分发挥计算能力。
2.
显
存大小。当模型越大,或者训练时的批量越大时,所需要的GPU内存就越多。
3.
显
存带宽。只有当内存带宽足够时才能充分发挥计算能力。
对于大部分用户来说,只要考虑计算能力就可以了。GPU内存尽量不小于4GB。但如果GPU要同时显示图形界面,那么推荐的内存大小至少为6GB。内存带宽通常相对固定,选择空间较小。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录