前言
最近兩個星期,DeepSeek 在互聯(lián)網(wǎng)上引發(fā)了新一波有關(guān)生成式 AI 大模型的討論,討論的熱烈程度不亞于當初 ChatGPT 剛出世的時候。
那么,在新一波的 AI 浪潮下,普通人和程序員又該如何面對呢?
下面,就讓筆者來為普通人和程序員讀者朋友分別給出一點參考方案。
普通人的 DeepSeek 使用指南
如果你并不了解編程相關(guān)知識,只想最快的體驗一下 DeepSeek,那么我推薦你使用 DeepSeek 官方網(wǎng)頁版和官方手機 APP。
官方網(wǎng)頁版:https://chat.deepseek.com/
界面功能詳解


網(wǎng)頁版就和普通的聊天對話窗口一樣,你可以直接輸入任何你想要問的問題,然后等待 AI 的回復。
手機端和網(wǎng)頁端大同小異,使用方法是一樣的,在此不再贅述。
這里需要注意幾個細節(jié):
-
默認情況下, 深度思考和 聯(lián)網(wǎng)搜索 兩個按鈕都是暗的,需要手動點一下才會啟用。如果你覺得你的 AI 似乎沒那么聰明,那么多半是沒有啟用深度思考。如果你注意到 AI 回復了過時的信息,那么就是沒有啟用聯(lián)網(wǎng)搜索。
由于最近一段時間 DeepSeek 過于火爆,網(wǎng)頁端的可用性不高,聯(lián)網(wǎng)搜索偶爾會不可用,此時可嘗試關(guān)閉聯(lián)網(wǎng)搜索。
如果還是不可用,嘗試關(guān)閉深度思考再試。
你可以在這個頁面查看 DeepSeek 服務狀態(tài)
-
image-20250208151314408
image-20250208151340780
聯(lián)網(wǎng)搜索 和 上傳文件 功能是互斥的,無法同時使用 目前,DeepSeek-R1(即深度思考模型) 僅支持文本處理,還不支持圖片識別和圖片生成。
-
image-20250208152328141
如果出現(xiàn)服務繁忙,可以點擊這個按鈕重新生成,不必重新輸入文本。
典型使用場景
DeepSeek-R1 比普通的 AI 強大的多,你可以直接把你的想法告訴它,然后和它交流,例如論文潤色、旅行規(guī)劃、知識問答、小說編寫等,這些都可以完成,你所能想到的任何文字工作,它都可以處理。
和一般的生成式 AI 不同,DeepSeek-R1 作為推理型 AI,過于冗長的提示詞反倒容易起到反效果,我的建議是直接把文本素材提交給 AI,讓它自己思考。
同時,因為 DeepSeek-R1 有思維鏈的緣故,你還可以看下它如何思考的。如果思維鏈上有錯誤,還可以直接指出問題。
程序員的 DeepSeek 使用指南
接下來的內(nèi)容涉及一些編程相關(guān)知識,可能會有些門檻,如果你不太了解相關(guān)內(nèi)容,可以嘗試向 DeepSeek-R1 詢問。
通過 API 調(diào)用
對程序員而言,網(wǎng)頁端只能算試用,畢竟實際使用中是要集成到自己的項目、應用中使用的。
此時就需要通過 API 來調(diào)用 DeepSeek-R1 模型。
注冊
首先前往 DeepSeek 開放平臺 完成注冊。新用戶會贈送 10 元的額度用于體驗,不必擔心一上來就要付費。
創(chuàng)建 API key
接下來要創(chuàng)建一個 API key,用于調(diào)用 API。
請注意保管好自己的 API key,不要在任何情況下泄露你的 API key!如有泄露,請立刻刪除!

編程調(diào)用 API
接下來就可以根據(jù)需求來調(diào)用 DeepSeek 的 API 了。
更多說明請參考官方 API 文檔:https://api-docs.deepseek.com/zh-cn/
通過 Node.js 調(diào)用
首先安裝 openai 模塊,然后編寫以下腳本,注意把 apiKey 替換為真實的 API key。
// Please install OpenAI SDK first: `npm install openai`
import OpenAI from "openai";
const openai = new OpenAI({
baseURL: 'https://api.deepseek.com',
apiKey: '<DeepSeek API Key>'
});
async function main() {
const completion = await openai.chat.completions.create({
messages: [{ role: "system", content: "You are a helpful assistant." }],
model: "deepseek-reasoner",
});
console.log(completion.choices[0].message.content);
}
main();
代碼中調(diào)用的是deepseek-reasoner,即 DeepSeek-R1;你也可以改成 deepseek-chat來調(diào)用 DeepSeek-V3。
GUI 調(diào)用 API
通過編程來調(diào)用 API 多少還是有點麻煩的,只有自己寫代碼的時候才推薦這樣調(diào)用。
如果只是想接入一個 GUI 的話,推薦使用現(xiàn)成的項目,例如 AnythingLLM、LM Studio 等,你可以直接接入 DeepSeek 的 API。
AnythingLLM 可以將任何文檔、資源(如網(wǎng)址鏈接、音頻、視頻)或內(nèi)容片段轉(zhuǎn)換為上下文,以便任何大語言模型(LLM)在聊天期間作為參考使用。此應用程序允許你選擇使用哪個 LLM 或向量數(shù)據(jù)庫,同時支持多用戶管理并設置不同權(quán)限。
PS:如果你在安裝 AnythingLLM 的過程中遇到了異常,可以嘗試使用管理員權(quán)限安裝。
如果遇到了下載 ollama 緩慢,可以直接中斷。ollama 不是必須的。

之后,就可以在 GUI 頁面進行交互了。

當然,你可能會問,有 DeepSeek 官方提供的聊天窗口,為啥還要通過 API 來調(diào)用。
實際上,使用 AnythingLLM 是為了不局限于 DeepSeek 一家 AI 服務商,你還可以使用其他任何的 AI 服務商,包括本地部署的 AI 模型。
價格說明
通過 API 來調(diào)用 AI 模型的時候,最關(guān)心的毫無疑問就是價格的。
所幸,DeepSeek 有著全網(wǎng)最低的 AI 模型價格。以 DeepSeek-V3 為例,每百萬 tokens 輸入僅需 2 元,如果有緩存則僅需 0.5 元!
而 DeepSeek-R1 的價格相較于 DeepSeek-V3 雖然有所上漲,但整體而言也還是便宜的,每百萬 tokens 輸入僅需 4 元!

當然,這時候可能就有人會注意到了:你這只講了輸入,沒講輸出?。?/p>
是的,DeepSeek-V3 的每百萬 tokens 輸出價格高達 8 元,則 DeepSeek-R1 更是高達 16 元。
但就我親身體驗而言,以及后臺的統(tǒng)計數(shù)據(jù)顯示,在 DeepSeek-V3 中,輸入的占比遠大于輸出;而 DeepSeek-R1 中輸入的占比也占絕大多數(shù)。


因此,調(diào)用 API 的主要成本是由輸入決定的,只有少部分 tokens 會用到高價格的輸出。
此外,還有個好消息就是,由于 DeepSeek 官方的價格實在太便宜了,所以在其他云服務商紛紛上加 DeepSeek-R1 的時候,在定價上必須和 DeepSeek 官方差不多,甚至還得更便宜,不然用戶就回去用 DeepSeek 官方的 API 了,這對開發(fā)者而言是個好事。
通過第三方云服務商 DeepSeek-R1
由于 DeepSeek 官方的使用人數(shù)過多,目前無論是網(wǎng)頁端還是 API 調(diào)用,可用性都不高,時不時就無響應。
因此,如果想要體驗滿血版 DeepSeek-R1 的話,就還是要通過云服務商來調(diào)用。
下面以硅基流動為例:
首先,前往官網(wǎng)注冊:https://cloud.siliconflow.cn/i/JZihT4rT
跟 DeepSeek 一樣,硅基流動也給信用戶贈送免費額度,額度更是多達 14 元,也可以用很長時間了。如果有邀請,還可以拿到更多額度。
如果只是想體驗下聊天對話功能,那么可以直接通過官網(wǎng)的文本對話頁面進行。
注意,硅基流動的官網(wǎng)頁面也是要付費的,這個價格跟直接調(diào)用 API 價格是一樣的。

而如果想要通過 API 方式調(diào)用,也是一樣,先創(chuàng)建一個 API 秘鑰。

然后在需要的地方調(diào)用即可。
跟 DeepSeek 唯一的區(qū)別就是改下 API 基礎(chǔ)地址,具體可參考API 手冊
硅基流動的 API 基礎(chǔ)地址為 https://api.siliconflow.cn/v1
代碼示例:
const options = {
method: 'POST',
headers: {Authorization: 'Bearer <token>', 'Content-Type': 'application/json'},
body: '{"model":"deepseek-ai/DeepSeek-V3","messages":[{"role":"user","content":"中國大模型行業(yè)2025年將會迎來哪些機遇和挑戰(zhàn)?"}],"stream":false,"max_tokens":512,"stop":["null"],"temperature":0.7,"top_p":0.7,"top_k":50,"frequency_penalty":0.5,"n":1,"response_format":{"type":"text"},"tools":[{"type":"function","function":{"description":"<string>","name":"<string>","parameters":{},"strict":false}}]}'
};
fetch('https://api.siliconflow.cn/v1/chat/completions', options)
.then(response => response.json())
.then(response => console.log(response))
.catch(err => console.error(err));
價格說明
目前硅基流動的滿血版 DeepSeek-R1 模型定價和 DeepSeek 一致,可以放心使用。

DeepSeek 輔助編程
在這里推薦使用 vscode 插件 Cline。
Cline 是一個集成在 IDE 中的自主編碼代理,能夠在您的許可下創(chuàng)建/編輯文件、執(zhí)行命令、使用瀏覽器等,并支持多種 API 和模型,旨在提高軟件開發(fā)效率。


在設置中選擇 DeepSeek,然后模型選擇 deepseek-reasoner 即可。
進階使用指南
上文簡單的介紹了下普通人和程序員如何使用 DeepSeek,下面就要開始上強度了,需要用到一定的編程和計算機相關(guān)知識了。
本地部署 DeepSeek-R1
首先需要說明的是,目前市面上所有的本地部署 DeepSeek-R1 的文章,也包括本文,部署的都是 DeepSeek-R1 的蒸餾模型,也就是說,并不是 DeepSeek-R1 本體!
為什么呢?
從 DeepSeek 的 AI 模型開源倉庫 可知,除了最大的 671b 模型外,其他參數(shù)的模型都是從 Qwen 或 Llama 蒸餾而來的,具體參考下圖:

所以,如果你下載的是 671b 以下的模型,例如 7b、14b,那么就是從 Qwen 蒸餾而來的;8b、70b,則是從 Llama 蒸餾而來的。
小參數(shù)的模型在智能水平上自然也不如真正的大模型
至于為什么只在本地部署小參數(shù)的模型,原因很簡單,內(nèi)存或顯存不足。

根據(jù) ollama 上的數(shù)據(jù),滿血版的 DeepSeek-R1 模型,體積高達 404GB,也就是說,至少要這么多內(nèi)存或顯存才能把模型放進去,更不要說實際推理的時候還要花更多的內(nèi)存或顯存。(實際上,內(nèi)存或顯存大概要 700GB 以上才能運行)
很顯然,大部分人是不具備運行滿血版的設備的。
下面就來講述一下如何部署殘血版的 DeepSeek-R1。
安裝 Ollama
從 Download Ollama 頁面安裝 Ollama
安裝完成后,執(zhí)行以下命令測試是否安裝成功
ollama -v

如果一切正常,應該會輸出 Ollama 的版本號。
如果無法通過命令行調(diào)用,請將 Ollama 的安裝路徑添加到環(huán)境變量。
Ollama 默認會將模型安裝在
C:\Users\%username%\.ollama\models下,如果你不希望模型放在該路徑下,可以設置OLLAMA_MODELS環(huán)境變量來指定模型的安裝位置。
運行 Ollama
執(zhí)行以下命令啟動 Ollama 服務。
ollama serve

如果一切順利,就會在 11434 端口啟動一個 http 服務,這時就可以直接通過 API 調(diào)用 Ollama 了。
下載 DeepSeek-R1
這里以最小的 1.5b 模型作為例子,你也可以根據(jù)自己的內(nèi)存、顯存配置使用更大參數(shù)的模型。
具體而言,
如果你的顯存大于模型大小,則走的是 GPU 計算版本,性能更快;
如果顯存小于模型大小,但內(nèi)存大于模型大小,此時走的是 CPU 版本,性能一般,但兼容性好;
如果內(nèi)存小于模型大小,則無法執(zhí)行該模型。
另開一個命令行窗口,執(zhí)行以下命令:
ollama pull deepseek-r1:1.5b
運行 DeepSeek-R1
執(zhí)行以下命令:
ollama run deepseek-r1:1.5b
如果一切順利,就可以看到一個命令行交互窗口,這時就可以直接使用了。

通過 GUI 調(diào)用 Ollama
顯然,通過命令行使用還是不太方便的,此時可以考慮使用 AnythingLLM 來調(diào)用 Ollama。
注意不要關(guān)閉 Ollama 服務,然后在 AnythingLLM 進行以下配置

選擇你需要的模型,然后根據(jù)配置調(diào)整 Max Tokens,也就是上下文長度,上下文太長會很吃配置,一般在 2000~8000 左右,更高配的可以調(diào)高點。
不要忘了點 save changes保存改動。
后續(xù)就可以像之前一樣在工作區(qū)調(diào)用了。
手機端使用 DeepSeek-R1
除了直接使用 DeepSeek 官方 APP 外,你也可以通過第三方 APP 來使用 DeepSeek-R1。
通過 ollama-app 可以直接在手機端訪問 Ollama 模型。
執(zhí)行以下命令獲取電腦 IP 地址:
ipconfig

如果你希望電腦的內(nèi)網(wǎng) IP 是固定的,可以在路由器上綁定 IP 和 MAC 地址

然后在 ollama-app 端設置主機地址即可。
注意:默認情況下,ollama 是不允許從本機以外的地址訪問的,因此可以在電腦端修改OLLAMA_HOST環(huán)境變量,然后重啟 ollama 服務(注意,需要新開一個命令行激活環(huán)境變量)。
然后就可以從手機端訪問 ollama 了。

手機端部署 DeepSeek-R1
可能有部分用戶需要真正的手機端本地部署,也就是完全離線的版本,在此僅做簡單說明。
首先下載 Temux linux 環(huán)境模擬器,然后在沙盒中安裝并編譯 llama.cpp,最后下載 DeepSeek-R1 模型。
更多內(nèi)容請參考這篇文章:《一步步教你如何在手機端離線運行 Deepseek-R1 本地模型》
部署 LLM API 聚合系統(tǒng)
你可能還注意到了一個問題:現(xiàn)在 LLM API 服務商那么多,從 OpenAI 切到 DeepSeek,從 DeepSeek 切到硅基流動,每個地方都要改 API 地址和秘鑰,這未免也太麻煩了。
尤其是現(xiàn)在需要用到 LLM 的地方越來越多了,對 LLM API 服務的依賴程度也越來越高了。
所以,就需要類似 one-api 這樣的 LLM API 管理 & 分發(fā)系統(tǒng)來統(tǒng)一管理 LLM API 的調(diào)用了。
one-api 的部署方式非常簡單,通過 Docker Compose 就可以非常方便的部署。
docker-compose.yml 參考內(nèi)容如下:
version: '3.4'
services:
one-api:
image: "${REGISTRY:-docker.io}/justsong/one-api:latest"
container_name: one-api
restart: always
command: --log-dir /app/logs
ports:
- "3000:3000"
volumes:
- ./data/oneapi:/data
- ./logs:/app/logs
environment:
# - SQL_DSN=oneapi:123456@tcp(db:3306)/one-api # 修改此行,或注釋掉以使用 SQLite 作為數(shù)據(jù)庫
- REDIS_CONN_STRING=redis://redis
- SESSION_SECRET=random_string # 修改為隨機字符串
- TZ=Asia/Shanghai
# - NODE_TYPE=slave # 多機部署時從節(jié)點取消注釋該行
# - SYNC_FREQUENCY=60 # 需要定期從數(shù)據(jù)庫加載數(shù)據(jù)時取消注釋該行
# - FRONTEND_BASE_URL=https://openai.justsong.cn # 多機部署時從節(jié)點取消注釋該行
depends_on:
- redis
healthcheck:
test: [ "CMD-SHELL", "wget -q -O - http://localhost:3000/api/status | grep -o '\"success\":\\s*true' | awk -F: '{print $2}'" ]
interval: 30s
timeout: 10s
retries: 3
redis:
image: "${REGISTRY:-docker.io}/redis:latest"
container_name: redis
restart: always
以個人用戶的用量,基本上 SQLite 已經(jīng)可以滿足需求了,無需再啟動一個 MySQL。
然后執(zhí)行以下命令
# 數(shù)據(jù)存儲在 ./data/mysql 文件夾內(nèi)
docker-compose up -d
# 查看部署狀態(tài)
docker-compose ps
總結(jié)
DeepSeek 這一波開源是徹底擊穿了 OpenAI 所塑造的技術(shù)壁壘,將全球的 AI 大模型使用成本拉低到一個全新的價格,這使得以前成本高昂的方案,現(xiàn)在可以以極低的成本實現(xiàn)。
如果說當初 OpenAI 的狂歡是只屬于少部分技術(shù)精英的,那么這一次 DeepSeek 的轟動則是屬于所有人的,是每一個人都可以體驗到的。
未來,AI 的成本還會更低,直到每一個人都能用的起,到那時,才是真正的 AI 時代。
本文作者:草梅友仁
本文地址:https://blog.cmyr.ltd/archives/deepseek-guide-for-everyone-and-programmers.html
版權(quán)聲明:本文采用 CC BY-NC-SA 4.0 協(xié)議 進行分發(fā),轉(zhuǎn)載請注明出處!


