CUDA入門

CUDA是什么

CUDA,Compute?Unified?Device?Architecture的簡稱,是由NVIDIA公司創(chuàng)立的基于他們公司生產(chǎn)的圖形處理器GPUs(Graphics?Processing?Units,可以通俗的理解為顯卡)的一個并行計算平臺和編程模型。

通過CUDA,GPUs可以很方便地被用來進(jìn)行通用計算(有點像在CPU中進(jìn)行的數(shù)值計算等等)。在沒有CUDA之前,GPUs一般只用來進(jìn)行圖形渲染(如通過OpenGL,DirectX)。

開發(fā)人員可以通過調(diào)用CUDA的API,來進(jìn)行并行編程,達(dá)到高性能計算目的。NVIDIA公司為了吸引更多的開發(fā)人員,對CUDA進(jìn)行了編程語言擴展,如CUDA?C/C++,CUDA?Fortran語言。注意CUDA?C/C++可以看作一個新的編程語言,因為NVIDIA配置了相應(yīng)的編譯器nvcc,CUDA?Fortran一樣。更多信息可以參考文獻(xiàn)。

主要概念與名稱

主機

將CPU及系統(tǒng)的內(nèi)存(內(nèi)存條)稱為主機。

設(shè)備

將GPU及GPU本身的顯示內(nèi)存稱為設(shè)備。

線程(Thread)

一般通過GPU的一個核進(jìn)行處理。(可以表示成一維,二維,三維,具體下面再細(xì)說)。

線程塊(Block)

1.?由多個線程組成(可以表示成一維,二維,三維,具體下面再細(xì)說)。

2.?各block是并行執(zhí)行的,block間無法通信,也沒有執(zhí)行順序。

3.?注意線程塊的數(shù)量限制為不超過65535(硬件限制)。

線程格(Grid)

由多個線程塊組成(可以表示成一維,二維,三維,具體下面再細(xì)說)。


線程束

在CUDA架構(gòu)中,線程束是指一個包含32個線程的集合,這個線程集合被“編織在一起”并且“步調(diào)一致”的形式執(zhí)行。在程序中的每一行,線程束中的每個線程都將在不同數(shù)據(jù)上執(zhí)行相同的命令。

核函數(shù)(Kernel)

1.?在GPU上執(zhí)行的函數(shù)通常稱為核函數(shù)。

2.?一般通過標(biāo)識符__global__修飾,調(diào)用通過<<<參數(shù)1,參數(shù)2>>>,用于說明內(nèi)核函數(shù)中的線程數(shù)量,以及線程是如何組織的。

3.?以線程格(Grid)的形式組織,每個線程格由若干個線程塊(block)組成,而每個線程塊又由若干個線程(thread)組成。

4.?是以block為單位執(zhí)行的。

5.?叧能在主機端代碼中調(diào)用。

6.?調(diào)用時必須聲明內(nèi)核函數(shù)的執(zhí)行參數(shù)。

7.?在編程時,必須先為kernel函數(shù)中用到的數(shù)組或變量分配好足夠的空間,再調(diào)用kernel函數(shù),否則在GPU計算時會發(fā)生錯誤,例如越界或報錯,甚至導(dǎo)致藍(lán)屏和死機。


dim3結(jié)構(gòu)類型

1.?dim3是基亍uint3定義的矢量類型,相當(dāng)亍由3個unsigned?int型組成的結(jié)構(gòu)體。uint3類型有三個數(shù)據(jù)成員unsigned?int?x;?unsigned?int?y;?unsigned?int?z;

2.?可使用亍一維、二維或三維的索引來標(biāo)識線程,構(gòu)成一維、二維或三維線程塊。

3.?dim3結(jié)構(gòu)類型變量用在核函數(shù)調(diào)用的<<<,>>>中。

4.?相關(guān)的幾個內(nèi)置變量

4.1.?threadIdx,顧名思義獲取線程thread的ID索引;如果線程是一維的那么就取threadIdx.x,二維的還可以多取到一個值threadIdx.y,以此類推到三維threadIdx.z。

4.2.?blockIdx,線程塊的ID索引;同樣有blockIdx.x,blockIdx.y,blockIdx.z。

4.3.?blockDim,線程塊的維度,同樣有blockDim.x,blockDim.y,blockDim.z。

4.4.?gridDim,線程格的維度,同樣有g(shù)ridDim.x,gridDim.y,gridDim.z。

5.?對于一維的block,線程的threadID=threadIdx.x。

6.?對于大小為(blockDim.x,?blockDim.y)的?二維?block,線程的threadID=threadIdx.x+threadIdx.y*blockDim.x。

7.?對于大小為(blockDim.x,?blockDim.y,?blockDim.z)的?三維?block,線程的threadID=threadIdx.x+threadIdx.y*blockDim.x+threadIdx.z*blockDim.x*blockDim.y。

8.?對于計算線程索引偏移增量為已啟動線程的總數(shù)。如stride?=?blockDim.x?*?gridDim.x;?threadId?+=?stride。

函數(shù)修飾符

1.?__global__,表明被修飾的函數(shù)在設(shè)備上執(zhí)行,但在主機上調(diào)用。

2.?__device__,表明被修飾的函數(shù)在設(shè)備上執(zhí)行,但只能在其他__device__函數(shù)或者_(dá)_global__函數(shù)中調(diào)用。

常用的GPU內(nèi)存函數(shù)

cudaMalloc()

1.?函數(shù)原型:?cudaError_t?cudaMalloc?(void?**devPtr,?size_t?size)。

2.?函數(shù)用處:與C語言中的malloc函數(shù)一樣,只是此函數(shù)在GPU的內(nèi)存你分配內(nèi)存。

3.?注意事項:

3.1.?可以將cudaMalloc()分配的指針傳遞給在設(shè)備上執(zhí)行的函數(shù);

3.2.?可以在設(shè)備代碼中使用cudaMalloc()分配的指針進(jìn)行設(shè)備內(nèi)存讀寫操作;

3.3.?可以將cudaMalloc()分配的指針傳遞給在主機上執(zhí)行的函數(shù);

3.4.?不可以在主機代碼中使用cudaMalloc()分配的指針進(jìn)行主機內(nèi)存讀寫操作(即不能進(jìn)行解引用)。

cudaMemcpy()

1.?函數(shù)原型:cudaError_t?cudaMemcpy?(void?*dst,?const?void?*src,?size_t?count,?cudaMemcpyKind?kind)。

2.?函數(shù)作用:與c語言中的memcpy函數(shù)一樣,只是此函數(shù)可以在主機內(nèi)存和GPU內(nèi)存之間互相拷貝數(shù)據(jù)。

3.?函數(shù)參數(shù):cudaMemcpyKind?kind表示數(shù)據(jù)拷貝方向,如果kind賦值為cudaMemcpyDeviceToHost表示數(shù)據(jù)從設(shè)備內(nèi)存拷貝到主機內(nèi)存。

4.?與C中的memcpy()一樣,以同步方式執(zhí)行,即當(dāng)函數(shù)返回時,復(fù)制操作就已經(jīng)完成了,并且在輸出緩沖區(qū)中包含了復(fù)制進(jìn)去的內(nèi)容。

5.?相應(yīng)的有個異步方式執(zhí)行的函數(shù)cudaMemcpyAsync(),這個函數(shù)詳解請看下面的流一節(jié)有關(guān)內(nèi)容。

cudaFree()

1.?函數(shù)原型:cudaError_t?cudaFree?(?void*?devPtr?)。

2.?函數(shù)作用:與c語言中的free()函數(shù)一樣,只是此函數(shù)釋放的是cudaMalloc()分配的內(nèi)存。

下面實例用于解釋上面三個函數(shù)


GPU內(nèi)存分類

全局內(nèi)存

通俗意義上的設(shè)備內(nèi)存。

共享內(nèi)存

1.?位置:設(shè)備內(nèi)存。

2.?形式:關(guān)鍵字__shared__添加到變量聲明中。如__shared__?float?cache[10]。

3.?目的:對于GPU上啟動的每個線程塊,CUDA?C編譯器都將創(chuàng)建該共享變量的一個副本。線程塊中的每個線程都共享這塊內(nèi)存,但線程卻無法看到也不能修改其他線程塊的變量副本。這樣使得一個線程塊中的多個線程能夠在計算上通信和協(xié)作。

常量內(nèi)存

1.?位置:設(shè)備內(nèi)存

2.?形式:關(guān)鍵字__constant__添加到變量聲明中。如__constant__?float?s[10];。

3.?目的:為了提升性能。常量內(nèi)存采取了不同于標(biāo)準(zhǔn)全局內(nèi)存的處理方式。在某些情況下,用常量內(nèi)存替換全局內(nèi)存能有效地減少內(nèi)存帶寬。

4.?特點:常量內(nèi)存用于保存在核函數(shù)執(zhí)行期間不會發(fā)生變化的數(shù)據(jù)。變量的訪問限制為只讀。NVIDIA硬件提供了64KB的常量內(nèi)存。不再需要cudaMalloc()或者cudaFree(),而是在編譯時,靜態(tài)地分配空間。

5.?要求:當(dāng)我們需要拷貝數(shù)據(jù)到常量內(nèi)存中應(yīng)該使用cudaMemcpyToSymbol(),而cudaMemcpy()會復(fù)制到全局內(nèi)存。

6.?性能提升的原因:

6.1.?對常量內(nèi)存的單次讀操作可以廣播到其他的“鄰近”線程。這將節(jié)約15次讀取操作。(為什么是15,因為“鄰近”指半個線程束,一個線程束包含32個線程的集合。)

6.2.?常量內(nèi)存的數(shù)據(jù)將緩存起來,因此對相同地址的連續(xù)讀操作將不會產(chǎn)生額外的內(nèi)存通信量。

紋理內(nèi)存

1.?位置:設(shè)備內(nèi)存

2.?目的:能夠減少對內(nèi)存的請求并提供高效的內(nèi)存帶寬。是專門為那些在內(nèi)存訪問模式中存在大量空間局部性的圖形應(yīng)用程序設(shè)計,意味著一個線程讀取的位置可能與鄰近線程讀取的位置“非常接近”。如下圖:


3. 紋理變量(引用)必須聲明為文件作用域內(nèi)的全局變量。

4.?形式:分為一維紋理內(nèi)存?和?二維紋理內(nèi)存。

4.1.?一維紋理內(nèi)存

4.1.1.?用texture<類型>類型聲明,如texture?texIn。

4.1.2.?通過cudaBindTexture()綁定到紋理內(nèi)存中。

4.1.3.?通過tex1Dfetch()來讀取紋理內(nèi)存中的數(shù)據(jù)。

4.1.4.?通過cudaUnbindTexture()取消綁定紋理內(nèi)存。

4.2.?二維紋理內(nèi)存

4.2.1.?用texture<類型,數(shù)字>類型聲明,如texture?texIn。

4.2.2.?通過cudaBindTexture2D()綁定到紋理內(nèi)存中。

4.2.3.?通過tex2D()來讀取紋理內(nèi)存中的數(shù)據(jù)。

4.2.4.?通過cudaUnbindTexture()取消綁定紋理內(nèi)存。

固定內(nèi)存

1.?位置:主機內(nèi)存。

2.?概念:也稱為頁鎖定內(nèi)存或者不可分頁內(nèi)存,操作系統(tǒng)將不會對這塊內(nèi)存分頁并交換到磁盤上,從而確保了該內(nèi)存始終駐留在物理內(nèi)存中。因此操作系統(tǒng)能夠安全地使某個應(yīng)用程序訪問該內(nèi)存的物理地址,因為這塊內(nèi)存將不會破壞或者重新定位。

3.?目的:提高訪問速度。由于GPU知道主機內(nèi)存的物理地址,因此可以通過“直接內(nèi)存訪問DMA(Direct?Memory?Access)技術(shù)來在GPU和主機之間復(fù)制數(shù)據(jù)。由于DMA在執(zhí)行復(fù)制時無需CPU介入。因此DMA復(fù)制過程中使用固定內(nèi)存是非常重要的。

4.?缺點:使用固定內(nèi)存,將失去虛擬內(nèi)存的所有功能;系統(tǒng)將更快的耗盡內(nèi)存。

5.?建議:對cudaMemcpy()函數(shù)調(diào)用中的源內(nèi)存或者目標(biāo)內(nèi)存,才使用固定內(nèi)存,并且在不再需要使用它們時立即釋放。

6.?形式:通過cudaHostAlloc()函數(shù)來分配;通過cudaFreeHost()釋放。

7.?只能以異步方式對固定內(nèi)存進(jìn)行復(fù)制操作。

原子性

1.?概念:如果操作的執(zhí)行過程不能分解為更小的部分,我們將滿足這種條件限制的操作稱為原子操作。

2.?形式:函數(shù)調(diào)用,如atomicAdd(addr,y)將生成一個原子的操作序列,這個操作序列包括讀取地址addr處的值,將y增加到這個值,以及將結(jié)果保存回地址addr。

常用線程操作函數(shù)

1.?同步方法__syncthreads(),這個函數(shù)的調(diào)用,將確保線程塊中的每個線程都執(zhí)行完__syscthreads()前面的語句后,才會執(zhí)行下一條語句。

使用事件來測量性能

1.?用途:為了測量GPU在某個任務(wù)上花費的時間。CUDA中的事件本質(zhì)上是一個GPU時間戳。由于事件是直接在GPU上實現(xiàn)的。因此不適用于對同時包含設(shè)備代碼和主機代碼的混合代碼設(shè)計。

2.?形式:首先創(chuàng)建一個事件,然后記錄事件,再計算兩個事件之差,最后銷毀事件。如:



1.?扯一扯:并發(fā)重點在于一個極短時間段內(nèi)運行多個不同的任務(wù);并行重點在于同時運行一個任務(wù)。

2.?任務(wù)并行性:是指并行執(zhí)行兩個或多個不同的任務(wù),而不是在大量數(shù)據(jù)上執(zhí)行同一個任務(wù)。

3.?概念:CUDA流表示一個GPU操作隊列,并且該隊列中的操作將以指定的順序執(zhí)行。我們可以在流中添加一些操作,如核函數(shù)啟動,內(nèi)存復(fù)制以及事件的啟動和結(jié)束等。這些操作的添加到流的順序也是它們的執(zhí)行順序??梢詫⒚總€流視為GPU上的一個任務(wù),并且這些任務(wù)可以并行執(zhí)行。

4.?硬件前提:必須是支持設(shè)備重疊功能的GPU。支持設(shè)備重疊功能,即在執(zhí)行一個核函數(shù)的同時,還能在設(shè)備與主機之間執(zhí)行復(fù)制操作。

5.?聲明與創(chuàng)建:聲明cudaStream_t?stream;,創(chuàng)建cudaSteamCreate(&stream);。

6.?cudaMemcpyAsync():前面在cudaMemcpy()中提到過,這是一個以異步方式執(zhí)行的函數(shù)。在調(diào)用cudaMemcpyAsync()時,只是放置一個請求,表示在流中執(zhí)行一次內(nèi)存復(fù)制操作,這個流是通過參數(shù)stream來指定的。當(dāng)函數(shù)返回時,我們無法確保復(fù)制操作是否已經(jīng)啟動,更無法保證它是否已經(jīng)結(jié)束。我們能夠得到的保證是,復(fù)制操作肯定會當(dāng)下一個被放入流中的操作之前執(zhí)行。傳遞給此函數(shù)的主機內(nèi)存指針必須是通過cudaHostAlloc()分配好的內(nèi)存。(流中要求固定內(nèi)存)

7.?流同步:通過cudaStreamSynchronize()來協(xié)調(diào)。

8.?流銷毀:在退出應(yīng)用程序之前,需要銷毀對GPU操作進(jìn)行排隊的流,調(diào)用cudaStreamDestroy()。

9.?針對多個流:

9.1.?記得對流進(jìn)行同步操作。

9.2.?將操作放入流的隊列時,應(yīng)采用寬度優(yōu)先方式,而非深度優(yōu)先的方式,換句話說,不是首先添加第0個流的所有操作,再依次添加后面的第1,2,…個流。而是交替進(jìn)行添加,比如將a的復(fù)制操作添加到第0個流中,接著把a的復(fù)制操作添加到第1個流中,再繼續(xù)其他的類似交替添加的行為。

9.3.?要牢牢記住操作放入流中的隊列中的順序影響到CUDA驅(qū)動程序調(diào)度這些操作和流以及執(zhí)行的方式。

技巧

1.?當(dāng)線程塊的數(shù)量為GPU中處理數(shù)量的2倍時,將達(dá)到最優(yōu)性能。

2.?核函數(shù)執(zhí)行的第一個計算就是計算輸入數(shù)據(jù)的偏移。每個線程的起始偏移都是0到線程數(shù)量減1之間的某個值。然后,對偏移的增量為已啟動線程的總數(shù)。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • CUDA從入門到精通(零):寫在前面 本文原版鏈接: 在老板的要求下,本博主從2012年上高性能計算課程開始接觸C...
    Pitfalls閱讀 3,824評論 1 3
  • 1. CPU vs. GPU 1.1 四種計算機模型 GPU設(shè)計的初衷就是為了減輕CPU計算的負(fù)載,將一部分圖形計...
    王偵閱讀 21,375評論 3 20
  • 一直很好奇GPU做矩陣運算是怎么并行加速的,今天看了一些粗淺的東西,并總結(jié)整理出來。version:cuda 8 ...
    bidai541閱讀 10,441評論 0 3
  • CUDA是一種新的操作GPU計算的硬件和軟件架構(gòu),它將GPU視作一個數(shù)據(jù)并行計算設(shè)備,而且無需把這些計算映射到圖形...
    ai領(lǐng)域閱讀 9,507評論 0 8
  • CUDA 簡介 CUDA 是由英偉達(dá)公司開發(fā)的并行計算平臺和編程模型的統(tǒng)稱。通過這個平臺我們可以利用 GPU 并行...
    ClarenceYK閱讀 5,335評論 0 7

友情鏈接更多精彩內(nèi)容