使用您自己的計(jì)算機(jī)訓(xùn)練 Stable Diffusion 和 Bloom (175B) 等模型

在我們最近的幾篇文章中,我們一直在提到圍繞大型語言和生成 AI 模型的炒作,以及如何減少推理和訓(xùn)練時(shí)間。隨著我們的用戶開始使用這些模型并對其進(jìn)行微調(diào),他們自然希望微調(diào)和部署包含數(shù)千億參數(shù)的模型,以提高其特定用例的性能。

通常,這是一項(xiàng)要求非常高的任務(wù),需要大量計(jì)算和 40GB 檢查點(diǎn)的存儲。這在普通計(jì)算機(jī)硬件上是不可行的。除了所需的電力和存儲之外,這種性質(zhì)的微調(diào)模型需要很長時(shí)間才能運(yùn)行,而且本質(zhì)上非常昂貴——直到現(xiàn)在。

介紹Huggingface的PEFT庫,該庫支持LoRA、Prefix Tuning等Parameter Efficient Fine-tuning方法,無需對所有模型參數(shù)進(jìn)行微調(diào),即可使預(yù)訓(xùn)練語言模型高效適配各種下游應(yīng)用。這些不同的技術(shù)實(shí)現(xiàn)了與完全微調(diào)相當(dāng)?shù)男阅堋?/p>

PEFT方法

還有 92% 的精彩內(nèi)容
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。
支付 ¥9.90 繼續(xù)閱讀

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容