提交 549ba303 编写于 作者: F feilong

修正选项BUG,选项必须至少3个

上级 39b9b499
# GPU硬件平台
以下介绍GPU硬件平台 ***错误*** 的是?
## 答案
GPU(Graphics Processing Unit)最多可以同时执行几十个线程.
## 选项
### A
GPU(Graphics Processing Unit) 专门用于高度并行计算,因此设计时更多的晶体管用于数据处理.
### B
GPU(Graphics Processing Unit)可以通过计算隐藏内存访问延迟,而不是依靠大数据缓存和复杂的流控制来避免长时间的内存访问延迟.
### C
GPU(Graphics Processing Unit)在相同的价格和功率范围内,比CPU提供更高的指令吞吐量和内存带宽.
\ No newline at end of file
# 环境安装配置
以下介绍关于GPU环境安装配置 ***错误***的是?
## 答案
我可以在没有NVIDIA GPU的系统上使用CUDA
## 选项
### A
CUDA可以安装在Windows操作系统中.
### B
CUDA可以安装在Linux系统中.
### C
CUDA可以安装在Jetson系统上
......@@ -2,13 +2,20 @@
以下哪个编译器可以用来编译CUDA程序?
## 答案
nvcc
## 选项
### A
gcc
### B
g++
### C
clang
......@@ -4,6 +4,7 @@
## 答案
```C++
kernel<<<gridDim, blockDim>>>(a,b,c)
```
......@@ -11,16 +12,19 @@ kernel<<<gridDim, blockDim>>>(a,b,c)
## 选项
### A
```C++
kernel(a,b,c)
```
### B
```C++
kernel<<<gridDim>>>(a,b,c)
```
### C
```C++
kernel(a,b,c)<<<gridDim, blockDim>>>
```
\ No newline at end of file
# CPU和GPU的通讯
以下说法中错误的是
## 答案
\_\_device\_\_标注的函数可以在host端调用,并在host上执行
## 选项
### A
\_\_global\_\_标注的函数可以在host端调用,并在device上执行
### B
\_\_device\_\_标注的函数可以在device端调用,并在device上执行
### C
在最新的GPU架构上, \_\_global\_\_标注的函数可以在device端调用,并在device上执行.
# 使用多个线程的核函数
以下说法错误的是?
## 答案
每个block内可以设置无限多个thread.
## 选项
### A
核函数会被你设置的每一个线程执行.
### B
CUDA中的grid和block可以是一维, 二维或者三维.
### C
在host端代码中需要通常需要显示或者隐式的设置同步命令, 让CPU知道GPU中的线程执行完毕.
# CUDA线程
在以下形式代码中调用kernel函数的前提下, 那每个线程的全局索引正确的是?
```C++
dim3 gridDim = blocksPerGrid;
dim3 blockDim = threadsPerBlock;
......@@ -10,6 +12,7 @@ kernel<<<gridDim, blockDim>>>(a,b,c)
```
## 答案
```C++
index = threadIdx.x + blockIdx.x * blockDim;
```
......@@ -17,16 +20,19 @@ index = threadIdx.x + blockIdx.x * blockDim;
## 选项
### A
```C++
index = threadIdx.x + blockDim;
```
### B
```C++
index = threadIdx.x * threadDim;
```
### C
```C++
index = blockIdx.x * blockDim;
```
\ No newline at end of file
# 多维网格
以下代码调用kernel函数, 对于多维Grid中每个线程在***全局***中的索引(x, y)正确的是?
```C++
dim3 gridDim = (blocksPerGrid, blocksPerGrid);
dim3 blockDim = (threadsPerBlock, threadsPerBlock);
......
# 网格和线程块
以下说法不正确的是?
## 答案
......@@ -12,4 +13,10 @@
同一个Block中的线程一定会运行在同一个SM中
### B
一个Grid可以包含多个线程block
### C
一个Grid可以包含1个线程block
\ No newline at end of file
......@@ -3,15 +3,19 @@
以下关于GPU存储单元说法正确的是?
## 答案
在CPU上初始化的数据需要显式或者隐式的传输到GPU存储单元, 然后才能被CUDA线程读取.
## 选项
### A
CUDA线程可以直接访问CPU中的内存设备.
### B
CPU不可以对GPU中的Global Memory读写.
### C
GPU内存读写带宽只与CUDA版本有关.
\ No newline at end of file
......@@ -3,13 +3,19 @@
下面关于GPU存储单元说法错误的是?
## 答案
CUDA线程有对所有类型的存储类型的读写权限
## 选项
### A
同一个Block内的线程可以通过 shared memory来进行协作
### B
CPU可以对GPU中的global memory, constant memory 和 texture memory进行读写
CPU可以对GPU中的global memory, constant memory 进行读写
### C
CPU可以对GPU中的texture memory进行读写
\ No newline at end of file
......@@ -3,14 +3,21 @@
下面关于GPU存储单元的分配与释放的说法错误的是?
## 答案
可以使用`cudaMemcpy(d_m, h_m, sizeof(int)*m*m, cudaMemcpyHostToDevice)` 的形式将数据从GPU传输给CPU
## 选项
### A
可是使用`cudaMalloc()`函数来分配GPU存储空间
可以使用`cudaMalloc()`函数来分配GPU存储空间
### B
可以使用`cudaFree()`函数来释放显存
### C
不可以使用`free()`函数来释放显存
# 数据传输
对于CUDA中的数据传输函数`cudaMemcpy(void *dst, const void *src, size_t count, cudaMemcpyKind kind)
`,以下说法错误的是?
对于CUDA中的数据传输函数 `cudaMemcpy(void *dst, const void *src, size_t count, cudaMemcpyKind kind)`, 以下说法错误的是?
## 答案
......@@ -10,10 +9,13 @@ count可以无限大
## 选项
### A
dst可以是由cudaMalloc()分配的,指向GPU内存的地址.
### B
dst也可以是指向CPU内存的地址
### C
kind指的是数据传输方向
\ No newline at end of file
......@@ -9,9 +9,14 @@
## 选项
### A
每个线程都有自己的寄存器, 其他线程无法访问.
### B
所有的线程都可以访问一个shared memory
所有的线程都可以访问一个 shared memory
### C
所有的线程都不可以访问 shared memory
\ No newline at end of file
......@@ -3,13 +3,19 @@
下面关于CUDA中的多种存储单元说法错误的是?
## 答案
Register和Shared memory有很多, 每个线程更多的占用它们,可以让更多的block驻留在SM中
## 选项
### A
GPU上有onchip和onboard的存储单元类型
### B
Onchip的存储单元包括Register 和 Shared memory
### C
每个线程块拥有一块shared memory
# CUDA中的多种存储单元
下面关于GPU中多种存储单元的说法错误的是?
## 答案
内核无法使用多于可用寄存器数量的任何变量(这也称为寄存器溢出)
## 选项
### A
寄存器变量是每个线程私有的,一旦thread执行结束,寄存器变量就会失效
### B
同一个Block中的线程共享一块Shared Memory
### C
在同一个编译单元,constant对所有kernel可见
# 共享内存
下面关于共享内存的说法错误的是?
## 答案
Shared Memory可以被设置成512KB,1024KB ,2048KB…剩下的给L1缓存
## 选项
### A
有可能会出现同时有很多线程访问Shared Memory上的数据
### B
为了克服这个同时访问的瓶颈,Shared Memory被分成32个逻辑块(banks)
### C
可以被同一block中的所有线程读写
# 共享内存
下面关于共享内存说法错误的是?
## 答案
同一个warp 内多个线程访问同一个bank的同一个地址时,会出现bank冲突.
同一个 warp 内多个线程访问同一个bank的同一个地址时,会出现bank冲突.
## 选项
### A
同常量内存一样,当一个 warp 中的所有线程访问同一地址的共享内存时,会触发一个广播(broadcast)机制到 warp 中所有线程.
### B
同一个warp 内多个线程访问同一个bank的不同地址时,会出现bank冲突.
\ No newline at end of file
同一个 warp 内多个线程访问同一个bank的不同地址时,会出现bank冲突.
### C
一个 warp 中的线程必然在同一个block中
......@@ -13,4 +13,10 @@
在优化矩阵乘的过程中, 我们可以利用shared memory减少从global memory中数据的读取次数.
### B
同一Block中的线程可以利用shared memory进行协作.
### C
同一Block中的线程可以利用shared memory进行协作, 减少从global memory中数据的读取次数
\ No newline at end of file
......@@ -9,8 +9,15 @@
## 选项
### A
不需要手动拷贝数据.
### B
可以利用cudaMallocManaged() 函数分配统一内存.
### C
统一内存是可从系统中的任何处理器访问的单个内存地址空间
......@@ -9,8 +9,14 @@
## 选项
### A
运行时函数会返回错误代码.
### B
内核启动不返回任何错误代码,因此必须在内核启动后立即调用 `cudaPeekAtLastError()``cudaGetLastError()` 以检索任何启动前错误.
### C
`checkCudaErrors`可对CUDA API进行错误检测,及时定位错误所在位置。
# 事件
下面关于CUDA编程模型中的event说法错误的是?
## 答案
......@@ -8,7 +9,9 @@ CUDA运行时提供了一种密切监视设备进度以及执行准确计时的
## 选项
### A
以下代码示例创建`start`, `stop`两个事件:
```C++
cudaEvent_t start, stop;
cudaEventCreate(&start);
......@@ -16,8 +19,22 @@ cudaEventCreate(&stop);
```
### B
可以利用以下代码销毁event:
```C++
cudaEventDestroy(start);
cudaEventDestroy(stop);
```
### C
可以利用以下代码统计事件间消耗的时间:
```C++
cudaEventRecord(start);
cudaEventRecord(stop);
float time;
cudaEventElapsedTime(&time, start, stop);
```
# 原子操作
下面关于CUDA中原子操作错误的是?
## 答案
......@@ -8,9 +9,14 @@
## 选项
### A
原子函数对驻留在全局或共享内存中的一个 32 位或 64 位字执行读-修改-写原子操作.
### B
原子操作保证在不受其他线程干扰的情况下执行。 换句话说,在操作完成之前,没有其他线程可以访问它处理数据的地址。
### C
原子操作是指,当一个线程要对同一个显存变量依次进行“读-计算-写”的操作时,操作必须连贯地执行,中间不能插入任何其他操作。
\ No newline at end of file
......@@ -9,8 +9,14 @@
## 选项
### A
原子操作可以处理GPU中global memory的数据.
### B
原子操作可以处理GPU中shared memory的数据.
### C
`atomicAdd` 是一个原子操作
# CUDA流
下面关于CUDA流的说法错误的是?
## 答案
......@@ -8,8 +9,14 @@ CUDA流只能在设备代码中调用执行.
## 选项
### A
流是按顺序执行的命令序列(可能由不同的主机线程发出).
### B
不同的流可能会彼此乱序或同时执行它们的命令.
### C
CUDA流表示一个GPU操作队列,并且该队列中的操作将以指定的顺序执行
# CUDA流
下面关于CUDA流的说法是错误的是?
## 答案
调用`cudaStreamSynchronize()` 函数, 程序会一直等待,直到所有主机线程的所有流中的所有先前命令都完成.
## 选项
### A
未指定任何流参数或等效地将流参数设置为零的内核启动和主机 <-> 设备内存拷贝将发布到默认流.
### B
调用`cudaDeviceSynchronize()`函数, 程序会一直等待,直到所有主机线程的所有流中的所有先前命令都完成.
### C
调用`cudaStreamCreate`创建一个流
\ No newline at end of file
# CUDA流
下面关于CUDA流的说法错误的是?
## 答案
以下设备操作对主机不是异步的:
* 内核启动;
......@@ -13,6 +15,7 @@
## 选项
### A
如果主机线程在它们之间发出以下任一操作,则来自不同流的两个命令不能同时运行:
* 页面锁定的主机内存分配,
......@@ -23,11 +26,18 @@
* 计算能力 3.x 和计算能力 7.x 中描述的 L1/共享内存配置之间的切换。
### B
CUDA 将以下操作公开为可以彼此同时操作的独立任务:
* 在主机上计算;
* 设备上的计算;
* 从主机到设备的内存传输;
### C
CUDA 将以下操作公开为可以彼此同时操作的独立任务:
* 从设备到主机的内存传输;
* 在给定设备的内存中进行内存传输;
* 设备之间的内存传输。
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册