一、DeepSeek R1本地部署
1、下載ollama下載地址

本人是Mac電腦,所以選第一項(xiàng),下面都是以Mac環(huán)境介紹部署,下載好把ollama運(yùn)行起來(lái)即可啟動(dòng)Ollama服務(wù)。
Ollama默認(rèn)監(jiān)聽(tīng)本地11434端口,您可以通過(guò)瀏覽器訪問(wèn)
http://localhost:11434來(lái)管理模型。
2、下載并運(yùn)行指定參數(shù)的R1版本
目前有以下參數(shù)供選擇
1.5b/7b/8b/14b/32b/70b/671b(“b” 表示 “Billion”,即 “十億”)
請(qǐng)根據(jù)自己電腦的配置情況合理選擇合適參數(shù),以下是參考配置
| 模型參數(shù) | CPU要求 | 內(nèi)存要求 | 硬盤要求 | 顯卡要求 |
|---|---|---|---|---|
| 1.5B | 最低4核(推薦多核處理器) | 8GB+ | 3GB+存儲(chǔ)空間(模型文件約1.5-2GB) | 非必需(純CPU推理),若GPU加速可選4GB+顯存(如GTX 1650) |
| 7B | 8核以上(推薦現(xiàn)代多核CPU) | 16GB+ | 8GB+(模型文件約4-5GB) | 推薦8GB+顯存(如RTX 3070/4060) |
| 8B | 與7B相近,略高10-20% | 與7B相近,略高10-20% | 與7B相近,略高10-20% | 與7B相近,略高10-20% |
| 14B | 12核以上 | 32GB+ | 15GB+ | 16GB+顯存(如RTX 4090或A5000) |
| 32B | 16核以上(如AMD Ryzen 9或Intel i9) | 64GB+ | 30GB+ | 24GB+顯存(如A100 40GB或雙卡RTX 3090) |
| 70B | 32核以上(服務(wù)器級(jí)CPU) | 128GB+ | 70GB+ | 多卡并行(如2xA100 80GB或4xRTX 4090) |
| 671B | 64核以上(服務(wù)器集群) | 512GB+ | 300GB+ | 多節(jié)點(diǎn)分布式訓(xùn)練(如8xA100/H100) |
舉個(gè)栗子:蘋果截止2025年2月最強(qiáng)大的Mac Pro主機(jī)的最高配(售價(jià)近10W),配置如下:
Apple M2 Ultra (24 核中央處理器、76 核圖形處理器和 32 核神經(jīng)網(wǎng)絡(luò)引擎)
192GB 統(tǒng)一內(nèi)存
8TB 固態(tài)硬盤
這個(gè)主機(jī)上建議運(yùn)行的參數(shù)如下:
DeepSeek-R1-8B:可以輕松運(yùn)行,性能表現(xiàn)良好。
DeepSeek-R1-32B:可以運(yùn)行,但需要監(jiān)控內(nèi)存使用情況,避免過(guò)載。
DeepSeek-R1-70B:理論上可以運(yùn)行,但建議謹(jǐn)慎嘗試,因?yàn)榭赡軙?huì)遇到內(nèi)存和 CPU 性能瓶頸。
也就是說(shuō)32B可以勝任,70B就勉強(qiáng)湊活了,一般的普通電腦配置的,可以部署1.5b練練手,自信點(diǎn)的配置可以嘗試7b或者8b。
- 確定好要部署的參數(shù)(用1.5b舉例),命令行執(zhí)行下面的命令
ollama run deepseek-r1:1.5b
// 其他參數(shù)改數(shù)字即可,例如32B則 ollama run deepseek-r1:32b
安裝好其實(shí)已經(jīng)可以在這個(gè)終端里進(jìn)行對(duì)話了。
- 打開(kāi)瀏覽器,訪問(wèn)
http://localhost:11434,確保模型加載成功,可以查看模型的運(yùn)行狀態(tài)。
顯示如下內(nèi)容則說(shuō)明模型已經(jīng)加載成功了
Ollama is running
3、使用Cherry Studio客戶端集成本地部署的deepseek-r1
下載Cherry Studio下載地址
下載安裝好以后,左下角設(shè)置里進(jìn)行配置api地址:http://localhost:11434

配置好以后就可以聊天了,注意箭頭指向模型選擇你下載的[deepseek-r1:參數(shù)量級(jí) | Ollama]

體驗(yàn)過(guò)官網(wǎng)滿血版deepseek r1的小伙伴應(yīng)該是不能忍受1.5b量級(jí)的回復(fù)
本地部署的優(yōu)點(diǎn)是反應(yīng)速度是相當(dāng)快,且不會(huì)出現(xiàn)網(wǎng)絡(luò)繁忙的提示了,這是本地部署的優(yōu)勢(shì),另外一個(gè)優(yōu)勢(shì)是數(shù)據(jù)更安全,因?yàn)闆](méi)有放到別人家的服務(wù)器上。
想要更好效果的可以嘗試7b或者8b的試試,或者接著看下面的滿血版R1的搭建。
// 拉取 deepseek-r1:7b 模型
ollama pull deepseek-r1:7b
Tip1:如果是局域網(wǎng)其他電腦想訪問(wèn)這臺(tái)主機(jī)的deepseek R1的API,本地部署的主機(jī)可以如下操作:
export OLLAMA_HOST=0.0.0.0:11434
ollama serve
然后其他電腦下載安裝Cherry Studio,并在設(shè)置里的API配置為你的ip地址:11434即可
Tip2:如果ollama輸入任何命令出現(xiàn)如下錯(cuò)誤
Error: something went wrong, please see the ollama server logs for details
主要是網(wǎng)絡(luò)問(wèn)題導(dǎo)致的,尤其是代理環(huán)境變量(終端FQ)有兩種解決辦法:
方法一:
# 檢查http_proxy變量是否存在
echo $http_proxy
# 檢查https_proxy變量是否存在
echo $https_proxy
如果輸出內(nèi)容了,請(qǐng)移除
# 移除HTTP代理環(huán)境變量
unset http_proxy
# 移除HTTPS代理環(huán)境變量
unset https_proxy
# 再檢查http_proxy變量是否存在
echo $http_proxy
# 再檢查https_proxy變量是否存在
echo $https_proxy
輸出為空,再試試ollama命令應(yīng)該就可以了。
如果你希望永久移除這些代理環(huán)境變量,可以編輯你的終端配置文件,例如編輯你的.zshrc文件(這是zsh的配置文件),并刪除或注釋掉其中設(shè)置代理變量的行。例如:
// 注釋掉類似下面的內(nèi)容
export http_proxy="http://your-proxy-server:port"
export https_proxy="http://your-proxy-server:port"
// 保存文件后再執(zhí)行
source ~/.zshrc
然后穩(wěn)妥起見(jiàn)再重啟下終端,再試試ollama命令應(yīng)該就可以了。
方法二:如果不想修改自己的代理環(huán)境變量,可以直接通過(guò)API操作命令代替ollama命令
官方api操作手冊(cè)如下:https://github.com/ollama/ollama/blob/main/docs/api.md
舉例來(lái)說(shuō):
// 終端直接運(yùn)行下面命令來(lái)pull模型
curl http://你的電腦ip地址:11434/api/pull -d '{"model": "deepseek-r1:1.5b"}'
// 獲取正在運(yùn)行的模型
curl http://你的電腦ip地址:11434/api/ps
也就是說(shuō)通過(guò)api也能操作ollama
二、滿血版DeepSeek R1搭建
學(xué)會(huì)了上面的本地部署,滿血版搭建就更簡(jiǎn)單了,步驟如下:
1、下載Cherry Studio,已下載請(qǐng)忽略 下載地址
2、登錄/注冊(cè)「硅基流動(dòng)」,新用戶會(huì)贈(zèng)送 2000 萬(wàn) Token 額度。 注冊(cè)地址
3、點(diǎn)擊左側(cè)列表里的API密鑰,右上角創(chuàng)建一個(gè)密鑰,并復(fù)制

4、打開(kāi)Cherry Studio,按照下圖順序填入API密鑰
注意先填入API密鑰,再點(diǎn)一下旁邊的檢查按鈕,然后選擇要檢查的模型,提示連接成功就可以了

5、進(jìn)入Cherry Studio聊天頁(yè)面,選擇DeepSeek R1模型

6、開(kāi)始聊天
