Tensorflow分布式簡單實踐

之前在公司的項目用了tf的分布式,但是效率一直很低,經(jīng)過一些簡單的調試也沒有解決問題。還是得把基礎概念一一搞清,才能有針對性地解決問題。所以開始看《Hands On Machine Learning with Scikit Learn and TensorFlow》里的相關章節(jié),并做下記錄。

單機多卡

分布式可以理解為把計算分配到多個設備上,并讓他們協(xié)同工作。最簡單的模式就是在一臺機器上的多個設備。

tensorflow分配計算單元的默認規(guī)則就是優(yōu)先分配到GPU0上(如果沒有GPU就是CPU0),如果用戶設定了條件就按用戶的設定放置。

未完待續(xù)...

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
【社區(qū)內容提示】社區(qū)部分內容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發(fā)布,文章內容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

友情鏈接更多精彩內容