Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
CSDN 技术社区
skill_tree_cuda
提交
549ba303
S
skill_tree_cuda
项目概览
CSDN 技术社区
/
skill_tree_cuda
通知
3
Star
1
Fork
1
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
S
skill_tree_cuda
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
提交
549ba303
编写于
4月 18, 2022
作者:
F
feilong
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
修正选项BUG,选项必须至少3个
上级
39b9b499
变更
27
显示空白变更内容
内联
并排
Showing
27 changed file
with
187 addition
and
8 deletion
+187
-8
data/1.CUDA入门初阶/1.GPU架构及异构计算/2.介绍GPU硬件平台/GPU_Platform.md
data/1.CUDA入门初阶/1.GPU架构及异构计算/2.介绍GPU硬件平台/GPU_Platform.md
+6
-0
data/1.CUDA入门初阶/1.GPU架构及异构计算/3.环境安装配置/Install.md
data/1.CUDA入门初阶/1.GPU架构及异构计算/3.环境安装配置/Install.md
+5
-0
data/1.CUDA入门初阶/2.初识CUDA/1.CUDA程序的编译/CUDA_compiler.md
data/1.CUDA入门初阶/2.初识CUDA/1.CUDA程序的编译/CUDA_compiler.md
+7
-0
data/1.CUDA入门初阶/2.初识CUDA/2.GPU线程的调用/CUDA_thread.md
data/1.CUDA入门初阶/2.初识CUDA/2.GPU线程的调用/CUDA_thread.md
+5
-0
data/1.CUDA入门初阶/2.初识CUDA/3.GPU和CPU的通讯/communication.md
data/1.CUDA入门初阶/2.初识CUDA/3.GPU和CPU的通讯/communication.md
+5
-0
data/1.CUDA入门初阶/2.初识CUDA/4.使用多个线程的核函数/multi_thread.md
data/1.CUDA入门初阶/2.初识CUDA/4.使用多个线程的核函数/multi_thread.md
+5
-0
data/1.CUDA入门初阶/2.初识CUDA/5.使用线程索引/thread_index.md
data/1.CUDA入门初阶/2.初识CUDA/5.使用线程索引/thread_index.md
+7
-0
data/1.CUDA入门初阶/2.初识CUDA/6.多维网络/multi_dim.md
data/1.CUDA入门初阶/2.初识CUDA/6.多维网络/multi_dim.md
+2
-0
data/1.CUDA入门初阶/2.初识CUDA/7.网格与线程块/grid_block.md
data/1.CUDA入门初阶/2.初识CUDA/7.网格与线程块/grid_block.md
+8
-0
data/1.CUDA入门初阶/3.CUDA存储单元的使用/1.设备初始化/mem1.md
data/1.CUDA入门初阶/3.CUDA存储单元的使用/1.设备初始化/mem1.md
+5
-0
data/1.CUDA入门初阶/3.CUDA存储单元的使用/2.GPU的存储单元/mem2.md
data/1.CUDA入门初阶/3.CUDA存储单元的使用/2.GPU的存储单元/mem2.md
+8
-1
data/1.CUDA入门初阶/3.CUDA存储单元的使用/3.GPU存储单元的分配与释放/mem3.md
data/1.CUDA入门初阶/3.CUDA存储单元的使用/3.GPU存储单元的分配与释放/mem3.md
+8
-1
data/1.CUDA入门初阶/3.CUDA存储单元的使用/4.数据的传输/mem4.md
data/1.CUDA入门初阶/3.CUDA存储单元的使用/4.数据的传输/mem4.md
+5
-2
data/1.CUDA入门初阶/3.CUDA存储单元的使用/5.数据与线程之间的对应关系/mem5.md
data/1.CUDA入门初阶/3.CUDA存储单元的使用/5.数据与线程之间的对应关系/mem5.md
+7
-1
data/1.CUDA入门初阶/4.多种CUDA存储单元详解/1.CUDA中的存储单元种类/mem6.md
data/1.CUDA入门初阶/4.多种CUDA存储单元详解/1.CUDA中的存储单元种类/mem6.md
+6
-0
data/1.CUDA入门初阶/4.多种CUDA存储单元详解/2.CUDA中的各种存储单元的使用方法/mem7.md
data/1.CUDA入门初阶/4.多种CUDA存储单元详解/2.CUDA中的各种存储单元的使用方法/mem7.md
+5
-0
data/1.CUDA入门初阶/5.利用共享存储单元优化应用/1.共享存储单元详解/mem8.md
data/1.CUDA入门初阶/5.利用共享存储单元优化应用/1.共享存储单元详解/mem8.md
+8
-0
data/1.CUDA入门初阶/5.利用共享存储单元优化应用/2.共享内存的Bank conflict/mem9.md
data/1.CUDA入门初阶/5.利用共享存储单元优化应用/2.共享内存的Bank conflict/mem9.md
+9
-3
data/1.CUDA入门初阶/5.利用共享存储单元优化应用/3.利用共享存储单元进行矩阵转置和矩阵乘积/mem10.md
.../1.CUDA入门初阶/5.利用共享存储单元优化应用/3.利用共享存储单元进行矩阵转置和矩阵乘积/mem10.md
+7
-0
data/1.CUDA入门初阶/6.统一内存/1.统一内存的基本概念和使用/mem11.md
data/1.CUDA入门初阶/6.统一内存/1.统一内存的基本概念和使用/mem11.md
+7
-0
data/2.CUDA入门中阶/1.CUA错误检测与事件/1.CUDA应用程序运行时的错误检测/error.md
data/2.CUDA入门中阶/1.CUA错误检测与事件/1.CUDA应用程序运行时的错误检测/error.md
+6
-0
data/2.CUDA入门中阶/1.CUA错误检测与事件/2.CUDA中的事件/event.md
data/2.CUDA入门中阶/1.CUA错误检测与事件/2.CUDA中的事件/event.md
+17
-0
data/2.CUDA入门中阶/2.原子操作/1.CUDA中的原子操作/atom.md
data/2.CUDA入门中阶/2.原子操作/1.CUDA中的原子操作/atom.md
+7
-0
data/2.CUDA入门中阶/2.原子操作/2.原子操作的适用场景/atom1.md
data/2.CUDA入门中阶/2.原子操作/2.原子操作的适用场景/atom1.md
+6
-0
data/2.CUDA入门中阶/3.CUDA stream/1.CUDA流的基本概念/stream.md
data/2.CUDA入门中阶/3.CUDA stream/1.CUDA流的基本概念/stream.md
+7
-0
data/2.CUDA入门中阶/3.CUDA stream/2.默认流与非默认流/stream1.md
data/2.CUDA入门中阶/3.CUDA stream/2.默认流与非默认流/stream1.md
+9
-0
data/2.CUDA入门中阶/3.CUDA stream/3.利用CUDA流重叠计算和数据传输/stream2.md
data/2.CUDA入门中阶/3.CUDA stream/3.利用CUDA流重叠计算和数据传输/stream2.md
+10
-0
未找到文件。
data/1.CUDA入门初阶/1.GPU架构及异构计算/2.介绍GPU硬件平台/GPU_Platform.md
浏览文件 @
549ba303
# GPU硬件平台
以下介绍GPU硬件平台
***错误**
*
的是?
## 答案
GPU(Graphics Processing Unit)最多可以同时执行几十个线程.
## 选项
### A
GPU(Graphics Processing Unit) 专门用于高度并行计算,因此设计时更多的晶体管用于数据处理.
### B
GPU(Graphics Processing Unit)可以通过计算隐藏内存访问延迟,而不是依靠大数据缓存和复杂的流控制来避免长时间的内存访问延迟.
### C
GPU(Graphics Processing Unit)在相同的价格和功率范围内,比CPU提供更高的指令吞吐量和内存带宽.
\ No newline at end of file
data/1.CUDA入门初阶/1.GPU架构及异构计算/3.环境安装配置/Install.md
浏览文件 @
549ba303
# 环境安装配置
以下介绍关于GPU环境安装配置
***错误**
*
的是?
## 答案
我可以在没有NVIDIA GPU的系统上使用CUDA
## 选项
### A
CUDA可以安装在Windows操作系统中.
### B
CUDA可以安装在Linux系统中.
### C
CUDA可以安装在Jetson系统上
data/1.CUDA入门初阶/2.初识CUDA/1.CUDA程序的编译/CUDA_compiler.md
浏览文件 @
549ba303
...
...
@@ -2,13 +2,20 @@
以下哪个编译器可以用来编译CUDA程序?
## 答案
nvcc
## 选项
### A
gcc
### B
g++
### C
clang
data/1.CUDA入门初阶/2.初识CUDA/2.GPU线程的调用/CUDA_thread.md
浏览文件 @
549ba303
...
...
@@ -4,6 +4,7 @@
## 答案
```
C++
kernel<<<gridDim, blockDim>>>(a,b,c)
```
...
...
@@ -11,16 +12,19 @@ kernel<<<gridDim, blockDim>>>(a,b,c)
## 选项
### A
```
C++
kernel(a,b,c)
```
### B
```
C++
kernel<<<gridDim>>>(a,b,c)
```
### C
```
C++
kernel(a,b,c)<<<gridDim, blockDim>>>
```
\ No newline at end of file
data/1.CUDA入门初阶/2.初识CUDA/3.GPU和CPU的通讯/communication.md
浏览文件 @
549ba303
# CPU和GPU的通讯
以下说法中错误的是
## 答案
\_\_
device
\_\_
标注的函数可以在host端调用,并在host上执行
## 选项
### A
\_\_
global
\_\_
标注的函数可以在host端调用,并在device上执行
### B
\_\_
device
\_\_
标注的函数可以在device端调用,并在device上执行
### C
在最新的GPU架构上,
\_\_
global
\_\_
标注的函数可以在device端调用,并在device上执行.
data/1.CUDA入门初阶/2.初识CUDA/4.使用多个线程的核函数/multi_thread.md
浏览文件 @
549ba303
# 使用多个线程的核函数
以下说法错误的是?
## 答案
每个block内可以设置无限多个thread.
## 选项
### A
核函数会被你设置的每一个线程执行.
### B
CUDA中的grid和block可以是一维, 二维或者三维.
### C
在host端代码中需要通常需要显示或者隐式的设置同步命令, 让CPU知道GPU中的线程执行完毕.
data/1.CUDA入门初阶/2.初识CUDA/5.使用线程索引/thread_index.md
浏览文件 @
549ba303
# CUDA线程
在以下形式代码中调用kernel函数的前提下, 那每个线程的全局索引正确的是?
```
C++
dim3 gridDim = blocksPerGrid;
dim3 blockDim = threadsPerBlock;
...
...
@@ -10,6 +12,7 @@ kernel<<<gridDim, blockDim>>>(a,b,c)
```
## 答案
```
C++
index = threadIdx.x + blockIdx.x * blockDim;
```
...
...
@@ -17,16 +20,19 @@ index = threadIdx.x + blockIdx.x * blockDim;
## 选项
### A
```
C++
index = threadIdx.x + blockDim;
```
### B
```
C++
index = threadIdx.x * threadDim;
```
### C
```
C++
index = blockIdx.x * blockDim;
```
\ No newline at end of file
data/1.CUDA入门初阶/2.初识CUDA/6.多维网络/multi_dim.md
浏览文件 @
549ba303
# 多维网格
以下代码调用kernel函数, 对于多维Grid中每个线程在
***全局**
*
中的索引(x, y)正确的是?
```
C++
dim3 gridDim = (blocksPerGrid, blocksPerGrid);
dim3 blockDim = (threadsPerBlock, threadsPerBlock);
...
...
data/1.CUDA入门初阶/2.初识CUDA/7.网格与线程块/grid_block.md
浏览文件 @
549ba303
# 网格和线程块
以下说法不正确的是?
## 答案
...
...
@@ -12,4 +13,10 @@
同一个Block中的线程一定会运行在同一个SM中
### B
一个Grid可以包含多个线程block
### C
一个Grid可以包含1个线程block
\ No newline at end of file
data/1.CUDA入门初阶/3.CUDA存储单元的使用/1.设备初始化/mem1.md
浏览文件 @
549ba303
...
...
@@ -3,15 +3,19 @@
以下关于GPU存储单元说法正确的是?
## 答案
在CPU上初始化的数据需要显式或者隐式的传输到GPU存储单元, 然后才能被CUDA线程读取.
## 选项
### A
CUDA线程可以直接访问CPU中的内存设备.
### B
CPU不可以对GPU中的Global Memory读写.
### C
GPU内存读写带宽只与CUDA版本有关.
\ No newline at end of file
data/1.CUDA入门初阶/3.CUDA存储单元的使用/2.GPU的存储单元/mem2.md
浏览文件 @
549ba303
...
...
@@ -3,13 +3,19 @@
下面关于GPU存储单元说法错误的是?
## 答案
CUDA线程有对所有类型的存储类型的读写权限
## 选项
### A
同一个Block内的线程可以通过 shared memory来进行协作
### B
CPU可以对GPU中的global memory, constant memory 和 texture memory进行读写
CPU可以对GPU中的global memory, constant memory 进行读写
### C
CPU可以对GPU中的texture memory进行读写
\ No newline at end of file
data/1.CUDA入门初阶/3.CUDA存储单元的使用/3.GPU存储单元的分配与释放/mem3.md
浏览文件 @
549ba303
...
...
@@ -3,14 +3,21 @@
下面关于GPU存储单元的分配与释放的说法错误的是?
## 答案
可以使用
`cudaMemcpy(d_m, h_m, sizeof(int)*m*m, cudaMemcpyHostToDevice)`
的形式将数据从GPU传输给CPU
## 选项
### A
可是使用
`cudaMalloc()`
函数来分配GPU存储空间
可以使用
`cudaMalloc()`
函数来分配GPU存储空间
### B
可以使用
`cudaFree()`
函数来释放显存
### C
不可以使用
`free()`
函数来释放显存
data/1.CUDA入门初阶/3.CUDA存储单元的使用/4.数据的传输/mem4.md
浏览文件 @
549ba303
# 数据传输
对于CUDA中的数据传输函数
`cudaMemcpy(void *dst, const void *src, size_t count, cudaMemcpyKind kind)
`
,以下说法错误的是?
对于CUDA中的数据传输函数
`cudaMemcpy(void *dst, const void *src, size_t count, cudaMemcpyKind kind)`
, 以下说法错误的是?
## 答案
...
...
@@ -10,10 +9,13 @@ count可以无限大
## 选项
### A
dst可以是由cudaMalloc()分配的,指向GPU内存的地址.
### B
dst也可以是指向CPU内存的地址
### C
kind指的是数据传输方向
\ No newline at end of file
data/1.CUDA入门初阶/3.CUDA存储单元的使用/5.数据与线程之间的对应关系/mem5.md
浏览文件 @
549ba303
...
...
@@ -9,9 +9,14 @@
## 选项
### A
每个线程都有自己的寄存器, 其他线程无法访问.
### B
所有的线程都可以访问一个shared memory
所有的线程都可以访问一个 shared memory
### C
所有的线程都不可以访问 shared memory
\ No newline at end of file
data/1.CUDA入门初阶/4.多种CUDA存储单元详解/1.CUDA中的存储单元种类/mem6.md
浏览文件 @
549ba303
...
...
@@ -3,13 +3,19 @@
下面关于CUDA中的多种存储单元说法错误的是?
## 答案
Register和Shared memory有很多, 每个线程更多的占用它们,可以让更多的block驻留在SM中
## 选项
### A
GPU上有onchip和onboard的存储单元类型
### B
Onchip的存储单元包括Register 和 Shared memory
### C
每个线程块拥有一块shared memory
data/1.CUDA入门初阶/4.多种CUDA存储单元详解/2.CUDA中的各种存储单元的使用方法/mem7.md
浏览文件 @
549ba303
# CUDA中的多种存储单元
下面关于GPU中多种存储单元的说法错误的是?
## 答案
内核无法使用多于可用寄存器数量的任何变量(这也称为寄存器溢出)
## 选项
### A
寄存器变量是每个线程私有的,一旦thread执行结束,寄存器变量就会失效
### B
同一个Block中的线程共享一块Shared Memory
### C
在同一个编译单元,constant对所有kernel可见
data/1.CUDA入门初阶/5.利用共享存储单元优化应用/1.共享存储单元详解/mem8.md
浏览文件 @
549ba303
# 共享内存
下面关于共享内存的说法错误的是?
## 答案
Shared Memory可以被设置成512KB,1024KB ,2048KB…剩下的给L1缓存
## 选项
### A
有可能会出现同时有很多线程访问Shared Memory上的数据
### B
为了克服这个同时访问的瓶颈,Shared Memory被分成32个逻辑块(banks)
### C
可以被同一block中的所有线程读写
data/1.CUDA入门初阶/5.利用共享存储单元优化应用/2.共享内存的Bank conflict/mem9.md
浏览文件 @
549ba303
# 共享内存
下面关于共享内存说法错误的是?
## 答案
同一个warp 内多个线程访问同一个bank的同一个地址时,会出现bank冲突.
同一个
warp 内多个线程访问同一个bank的同一个地址时,会出现bank冲突.
## 选项
### A
同常量内存一样,当一个 warp 中的所有线程访问同一地址的共享内存时,会触发一个广播(broadcast)机制到 warp 中所有线程.
### B
同一个warp 内多个线程访问同一个bank的不同地址时,会出现bank冲突.
\ No newline at end of file
同一个 warp 内多个线程访问同一个bank的不同地址时,会出现bank冲突.
### C
一个 warp 中的线程必然在同一个block中
data/1.CUDA入门初阶/5.利用共享存储单元优化应用/3.利用共享存储单元进行矩阵转置和矩阵乘积/mem10.md
浏览文件 @
549ba303
...
...
@@ -13,4 +13,10 @@
在优化矩阵乘的过程中, 我们可以利用shared memory减少从global memory中数据的读取次数.
### B
同一Block中的线程可以利用shared memory进行协作.
### C
同一Block中的线程可以利用shared memory进行协作, 减少从global memory中数据的读取次数
\ No newline at end of file
data/1.CUDA入门初阶/6.统一内存/1.统一内存的基本概念和使用/mem11.md
浏览文件 @
549ba303
...
...
@@ -9,8 +9,15 @@
## 选项
### A
不需要手动拷贝数据.
### B
可以利用cudaMallocManaged() 函数分配统一内存.
### C
统一内存是可从系统中的任何处理器访问的单个内存地址空间
data/2.CUDA入门中阶/1.CUA错误检测与事件/1.CUDA应用程序运行时的错误检测/error.md
浏览文件 @
549ba303
...
...
@@ -9,8 +9,14 @@
## 选项
### A
运行时函数会返回错误代码.
### B
内核启动不返回任何错误代码,因此必须在内核启动后立即调用
`cudaPeekAtLastError()`
或
`cudaGetLastError()`
以检索任何启动前错误.
### C
`checkCudaErrors`
可对CUDA API进行错误检测,及时定位错误所在位置。
data/2.CUDA入门中阶/1.CUA错误检测与事件/2.CUDA中的事件/event.md
浏览文件 @
549ba303
# 事件
下面关于CUDA编程模型中的event说法错误的是?
## 答案
...
...
@@ -8,7 +9,9 @@ CUDA运行时提供了一种密切监视设备进度以及执行准确计时的
## 选项
### A
以下代码示例创建
`start`
,
`stop`
两个事件:
```
C++
cudaEvent_t start, stop;
cudaEventCreate(&start);
...
...
@@ -16,8 +19,22 @@ cudaEventCreate(&stop);
```
### B
可以利用以下代码销毁event:
```
C++
cudaEventDestroy(start);
cudaEventDestroy(stop);
```
### C
可以利用以下代码统计事件间消耗的时间:
```
C++
cudaEventRecord(start);
cudaEventRecord(stop);
float time;
cudaEventElapsedTime(&time, start, stop);
```
data/2.CUDA入门中阶/2.原子操作/1.CUDA中的原子操作/atom.md
浏览文件 @
549ba303
# 原子操作
下面关于CUDA中原子操作错误的是?
## 答案
...
...
@@ -8,9 +9,14 @@
## 选项
### A
原子函数对驻留在全局或共享内存中的一个 32 位或 64 位字执行读-修改-写原子操作.
### B
原子操作保证在不受其他线程干扰的情况下执行。 换句话说,在操作完成之前,没有其他线程可以访问它处理数据的地址。
### C
原子操作是指,当一个线程要对同一个显存变量依次进行“读-计算-写”的操作时,操作必须连贯地执行,中间不能插入任何其他操作。
\ No newline at end of file
data/2.CUDA入门中阶/2.原子操作/2.原子操作的适用场景/atom1.md
浏览文件 @
549ba303
...
...
@@ -9,8 +9,14 @@
## 选项
### A
原子操作可以处理GPU中global memory的数据.
### B
原子操作可以处理GPU中shared memory的数据.
### C
`atomicAdd`
是一个原子操作
data/2.CUDA入门中阶/3.CUDA stream/1.CUDA流的基本概念/stream.md
浏览文件 @
549ba303
# CUDA流
下面关于CUDA流的说法错误的是?
## 答案
...
...
@@ -8,8 +9,14 @@ CUDA流只能在设备代码中调用执行.
## 选项
### A
流是按顺序执行的命令序列(可能由不同的主机线程发出).
### B
不同的流可能会彼此乱序或同时执行它们的命令.
### C
CUDA流表示一个GPU操作队列,并且该队列中的操作将以指定的顺序执行
data/2.CUDA入门中阶/3.CUDA stream/2.默认流与非默认流/stream1.md
浏览文件 @
549ba303
# CUDA流
下面关于CUDA流的说法是错误的是?
## 答案
调用
`cudaStreamSynchronize()`
函数, 程序会一直等待,直到所有主机线程的所有流中的所有先前命令都完成.
## 选项
### A
未指定任何流参数或等效地将流参数设置为零的内核启动和主机
<->
设备内存拷贝将发布到默认流.
### B
调用
`cudaDeviceSynchronize()`
函数, 程序会一直等待,直到所有主机线程的所有流中的所有先前命令都完成.
### C
调用
`cudaStreamCreate`
创建一个流
\ No newline at end of file
data/2.CUDA入门中阶/3.CUDA stream/3.利用CUDA流重叠计算和数据传输/stream2.md
浏览文件 @
549ba303
# CUDA流
下面关于CUDA流的说法错误的是?
## 答案
以下设备操作对主机不是异步的:
*
内核启动;
...
...
@@ -13,6 +15,7 @@
## 选项
### A
如果主机线程在它们之间发出以下任一操作,则来自不同流的两个命令不能同时运行:
*
页面锁定的主机内存分配,
...
...
@@ -23,11 +26,18 @@
*
计算能力 3.x 和计算能力 7.x 中描述的 L1/共享内存配置之间的切换。
### B
CUDA 将以下操作公开为可以彼此同时操作的独立任务:
*
在主机上计算;
*
设备上的计算;
*
从主机到设备的内存传输;
### C
CUDA 将以下操作公开为可以彼此同时操作的独立任务:
*
从设备到主机的内存传输;
*
在给定设备的内存中进行内存传输;
*
设备之间的内存传输。
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录