tensorflow gpu使用說(shuō)明

由于tensorflow默認(rèn)搶占服務(wù)器所有GPU顯存,只允許一個(gè)小內(nèi)存的程序也會(huì)占用所有GPU資源。下面提出使用GPU運(yùn)行tensorflow的幾點(diǎn)建議:

1.在運(yùn)行之前先查看GPU的使用情況:

$ nvidia-smi? ? ? ? ? # 查看GPU此時(shí)的使用情況

或者

$ nvidia-smi -l? ? ? # 實(shí)時(shí)返回GPU使用情況

2.目前實(shí)驗(yàn)室服務(wù)器有0,1,2,3四個(gè)GPU,找到空閑的GPU號(hào),可以使用環(huán)境變量CUDA_VISIBLE_DEVICES:

環(huán)境變量的定義格式:

CUDA_VISIBLE_DEVICES=1? ? ? ? ? Only device 1 will be seen

CUDA_VISIBLE_DEVICES=0,1? ? Devices 0 and 1 will be visible

CUDA_VISIBLE_DEVICES=”0,1”? Same as above, quotation marks are optional

CUDA_VISIBLE_DEVICES=0,2,3? Devices 0, 2, 3 will be visible; device 1 is masked

輸入以下命令運(yùn)行程序:

$ export CUDA_VISIBLE_DEVICES=0? # 假設(shè)此時(shí) GPU 0 空閑

為了防止新開終端忘記export,比較保險(xiǎn)的做法是每次運(yùn)行tensorflow之前定義使用的GPU:

$ CUDA_VISIBLE_DEVICES=0Pythonmnist.py? # 假設(shè)此時(shí) GPU 0 空閑, mnist.py為你想運(yùn)行的程序。

3.這樣tensorflow此時(shí)只會(huì)在指定的GPU上運(yùn)行,但是仍然會(huì)占用整個(gè)GPU的顯存,不過(guò)不和其他人公用GPU時(shí)也不會(huì)有影響,下面介紹兩種限定GPU占用的方法:

(1)在tensorflow中定義session時(shí)作如下設(shè)置,該設(shè)置會(huì)啟用最少的GPU顯存來(lái)運(yùn)行程序。

config = tf.ConfigProto()

config.gpu_options.allow_growth = True

session = tf.Session(config=config)

(2)在tensorflow中定義session時(shí)作如下設(shè)置,該設(shè)置會(huì)強(qiáng)制程序只占用指定比例的GPU顯存。

config = tf.ConfigProto()

config.gpu_options.per_process_gpu_memory_fraction = 0.4? # 占用GPU40%的顯存

session = tf.Session(config=config)

注:

- 在tensorflow代碼中with tf.device(‘/gpu:0’):只會(huì)指定在GPU 0上計(jì)算,但仍然會(huì)默認(rèn)占用所有GPU資源。


原文參考:http://blog.csdn.net/qq_30159351/article/details/52892577

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容