pytorch中多GPU并行設置

當使用GPU時,程序默認從device[0]開始運行,但是如果遇到第一塊就被占滿的情況,那么程序直接報錯GPU溢出,但其實第二塊第三塊空閑,因此可以通過設置GPU的Index,要求程序在哪幾塊GPU上運行。有兩種方法:
一、
設置CUDA_VISIBLE_DEVICES=0,1 python train.py,指定在0,1塊上運行,

二、
在程序中使用:

import os;
os.environ['CUDA_VISIBLE_DEVICES’]=“2”;

另外pytorch2.0后增加了分布式GPU運行.
分布式是指多個GPU在多臺服務器上運行,而并行是指一臺服務器上有多個GPU。
采用data=data.cuda(1)的方式可以把數(shù)據(jù)轉存到GPU1塊上。

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
【社區(qū)內容提示】社區(qū)部分內容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發(fā)布,文章內容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

友情鏈接更多精彩內容