我的 DeepSeek 使用日記:從新手到高手的實用指南

前言

最近兩個星期,DeepSeek 在互聯(lián)網(wǎng)上引發(fā)了新一波有關(guān)生成式 AI 大模型的討論,討論的熱烈程度不亞于當初 ChatGPT 剛出世的時候。

那么,在新一波的 AI 浪潮下,普通人和程序員又該如何面對呢?

下面,就讓筆者來為普通人和程序員讀者朋友分別給出一點參考方案。

普通人的 DeepSeek 使用指南

如果你并不了解編程相關(guān)知識,只想最快的體驗一下 DeepSeek,那么我推薦你使用 DeepSeek 官方網(wǎng)頁版和官方手機 APP。

官方網(wǎng)頁版:https://chat.deepseek.com/

界面功能詳解

image-20250208150841750
image.png

網(wǎng)頁版就和普通的聊天對話窗口一樣,你可以直接輸入任何你想要問的問題,然后等待 AI 的回復。

手機端和網(wǎng)頁端大同小異,使用方法是一樣的,在此不再贅述。

這里需要注意幾個細節(jié):

  • 默認情況下, 深度思考聯(lián)網(wǎng)搜索 兩個按鈕都是暗的,需要手動點一下才會啟用。如果你覺得你的 AI 似乎沒那么聰明,那么多半是沒有啟用深度思考。如果你注意到 AI 回復了過時的信息,那么就是沒有啟用聯(lián)網(wǎng)搜索。

    由于最近一段時間 DeepSeek 過于火爆,網(wǎng)頁端的可用性不高,聯(lián)網(wǎng)搜索偶爾會不可用,此時可嘗試關(guān)閉聯(lián)網(wǎng)搜索。

    如果還是不可用,嘗試關(guān)閉深度思考再試。

    你可以在這個頁面查看 DeepSeek 服務狀態(tài)

  • image-20250208151314408

    image-20250208151340780

    聯(lián)網(wǎng)搜索上傳文件 功能是互斥的,無法同時使用

  • 目前,DeepSeek-R1(即深度思考模型) 僅支持文本處理,還不支持圖片識別和圖片生成。

  • image-20250208152328141

    如果出現(xiàn)服務繁忙,可以點擊這個按鈕重新生成,不必重新輸入文本。

典型使用場景

DeepSeek-R1 比普通的 AI 強大的多,你可以直接把你的想法告訴它,然后和它交流,例如論文潤色、旅行規(guī)劃、知識問答、小說編寫等,這些都可以完成,你所能想到的任何文字工作,它都可以處理。

和一般的生成式 AI 不同,DeepSeek-R1 作為推理型 AI,過于冗長的提示詞反倒容易起到反效果,我的建議是直接把文本素材提交給 AI,讓它自己思考。

同時,因為 DeepSeek-R1 有思維鏈的緣故,你還可以看下它如何思考的。如果思維鏈上有錯誤,還可以直接指出問題。

程序員的 DeepSeek 使用指南

接下來的內(nèi)容涉及一些編程相關(guān)知識,可能會有些門檻,如果你不太了解相關(guān)內(nèi)容,可以嘗試向 DeepSeek-R1 詢問。

通過 API 調(diào)用

對程序員而言,網(wǎng)頁端只能算試用,畢竟實際使用中是要集成到自己的項目、應用中使用的。

此時就需要通過 API 來調(diào)用 DeepSeek-R1 模型。

注冊

首先前往 DeepSeek 開放平臺 完成注冊。新用戶會贈送 10 元的額度用于體驗,不必擔心一上來就要付費。

創(chuàng)建 API key

接下來要創(chuàng)建一個 API key,用于調(diào)用 API。

請注意保管好自己的 API key,不要在任何情況下泄露你的 API key!如有泄露,請立刻刪除!

image-20250208154213776

編程調(diào)用 API

接下來就可以根據(jù)需求來調(diào)用 DeepSeek 的 API 了。

更多說明請參考官方 API 文檔:https://api-docs.deepseek.com/zh-cn/

通過 Node.js 調(diào)用

首先安裝 openai 模塊,然后編寫以下腳本,注意把 apiKey 替換為真實的 API key。

// Please install OpenAI SDK first: `npm install openai`

import OpenAI from "openai";

const openai = new OpenAI({
        baseURL: 'https://api.deepseek.com',
        apiKey: '<DeepSeek API Key>'
});

async function main() {
  const completion = await openai.chat.completions.create({
    messages: [{ role: "system", content: "You are a helpful assistant." }],
    model: "deepseek-reasoner",
  });

  console.log(completion.choices[0].message.content);
}

main();

代碼中調(diào)用的是deepseek-reasoner,即 DeepSeek-R1;你也可以改成 deepseek-chat來調(diào)用 DeepSeek-V3。

GUI 調(diào)用 API

通過編程來調(diào)用 API 多少還是有點麻煩的,只有自己寫代碼的時候才推薦這樣調(diào)用。

如果只是想接入一個 GUI 的話,推薦使用現(xiàn)成的項目,例如 AnythingLLM、LM Studio 等,你可以直接接入 DeepSeek 的 API。

AnythingLLM 可以將任何文檔、資源(如網(wǎng)址鏈接、音頻、視頻)或內(nèi)容片段轉(zhuǎn)換為上下文,以便任何大語言模型(LLM)在聊天期間作為參考使用。此應用程序允許你選擇使用哪個 LLM 或向量數(shù)據(jù)庫,同時支持多用戶管理并設置不同權(quán)限。

PS:如果你在安裝 AnythingLLM 的過程中遇到了異常,可以嘗試使用管理員權(quán)限安裝。

如果遇到了下載 ollama 緩慢,可以直接中斷。ollama 不是必須的。

image-20250208155146339

之后,就可以在 GUI 頁面進行交互了。

image-20250208155305454

當然,你可能會問,有 DeepSeek 官方提供的聊天窗口,為啥還要通過 API 來調(diào)用。

實際上,使用 AnythingLLM 是為了不局限于 DeepSeek 一家 AI 服務商,你還可以使用其他任何的 AI 服務商,包括本地部署的 AI 模型。

價格說明

通過 API 來調(diào)用 AI 模型的時候,最關(guān)心的毫無疑問就是價格的。

所幸,DeepSeek 有著全網(wǎng)最低的 AI 模型價格。以 DeepSeek-V3 為例,每百萬 tokens 輸入僅需 2 元,如果有緩存則僅需 0.5 元!

而 DeepSeek-R1 的價格相較于 DeepSeek-V3 雖然有所上漲,但整體而言也還是便宜的,每百萬 tokens 輸入僅需 4 元!

image-20250208155942614

當然,這時候可能就有人會注意到了:你這只講了輸入,沒講輸出?。?/p>

是的,DeepSeek-V3 的每百萬 tokens 輸出價格高達 8 元,則 DeepSeek-R1 更是高達 16 元。

但就我親身體驗而言,以及后臺的統(tǒng)計數(shù)據(jù)顯示,在 DeepSeek-V3 中,輸入的占比遠大于輸出;而 DeepSeek-R1 中輸入的占比也占絕大多數(shù)。

image-20250208160315982
image-20250208160333127

因此,調(diào)用 API 的主要成本是由輸入決定的,只有少部分 tokens 會用到高價格的輸出。

此外,還有個好消息就是,由于 DeepSeek 官方的價格實在太便宜了,所以在其他云服務商紛紛上加 DeepSeek-R1 的時候,在定價上必須和 DeepSeek 官方差不多,甚至還得更便宜,不然用戶就回去用 DeepSeek 官方的 API 了,這對開發(fā)者而言是個好事。

通過第三方云服務商 DeepSeek-R1

由于 DeepSeek 官方的使用人數(shù)過多,目前無論是網(wǎng)頁端還是 API 調(diào)用,可用性都不高,時不時就無響應。

因此,如果想要體驗滿血版 DeepSeek-R1 的話,就還是要通過云服務商來調(diào)用。

下面以硅基流動為例:

首先,前往官網(wǎng)注冊:https://cloud.siliconflow.cn/i/JZihT4rT

跟 DeepSeek 一樣,硅基流動也給信用戶贈送免費額度,額度更是多達 14 元,也可以用很長時間了。如果有邀請,還可以拿到更多額度。

如果只是想體驗下聊天對話功能,那么可以直接通過官網(wǎng)的文本對話頁面進行。

注意,硅基流動的官網(wǎng)頁面也是要付費的,這個價格跟直接調(diào)用 API 價格是一樣的。

image-20250208165156341

而如果想要通過 API 方式調(diào)用,也是一樣,先創(chuàng)建一個 API 秘鑰。

image-20250208165510298

然后在需要的地方調(diào)用即可。

跟 DeepSeek 唯一的區(qū)別就是改下 API 基礎(chǔ)地址,具體可參考API 手冊

硅基流動的 API 基礎(chǔ)地址為 https://api.siliconflow.cn/v1

代碼示例:

const options = {
  method: 'POST',
  headers: {Authorization: 'Bearer <token>', 'Content-Type': 'application/json'},
  body: '{"model":"deepseek-ai/DeepSeek-V3","messages":[{"role":"user","content":"中國大模型行業(yè)2025年將會迎來哪些機遇和挑戰(zhàn)?"}],"stream":false,"max_tokens":512,"stop":["null"],"temperature":0.7,"top_p":0.7,"top_k":50,"frequency_penalty":0.5,"n":1,"response_format":{"type":"text"},"tools":[{"type":"function","function":{"description":"<string>","name":"<string>","parameters":{},"strict":false}}]}'
};

fetch('https://api.siliconflow.cn/v1/chat/completions', options)
  .then(response => response.json())
  .then(response => console.log(response))
  .catch(err => console.error(err));

價格說明

目前硅基流動的滿血版 DeepSeek-R1 模型定價和 DeepSeek 一致,可以放心使用。

image-20250208165909877

DeepSeek 輔助編程

在這里推薦使用 vscode 插件 Cline。

Cline 是一個集成在 IDE 中的自主編碼代理,能夠在您的許可下創(chuàng)建/編輯文件、執(zhí)行命令、使用瀏覽器等,并支持多種 API 和模型,旨在提高軟件開發(fā)效率。

image.png
image.png

在設置中選擇 DeepSeek,然后模型選擇 deepseek-reasoner 即可。

進階使用指南

上文簡單的介紹了下普通人和程序員如何使用 DeepSeek,下面就要開始上強度了,需要用到一定的編程和計算機相關(guān)知識了。

本地部署 DeepSeek-R1

首先需要說明的是,目前市面上所有的本地部署 DeepSeek-R1 的文章,也包括本文,部署的都是 DeepSeek-R1 的蒸餾模型,也就是說,并不是 DeepSeek-R1 本體!

為什么呢?

DeepSeek 的 AI 模型開源倉庫 可知,除了最大的 671b 模型外,其他參數(shù)的模型都是從 Qwen 或 Llama 蒸餾而來的,具體參考下圖:

image-20250208161702313

所以,如果你下載的是 671b 以下的模型,例如 7b、14b,那么就是從 Qwen 蒸餾而來的;8b、70b,則是從 Llama 蒸餾而來的。

小參數(shù)的模型在智能水平上自然也不如真正的大模型

至于為什么只在本地部署小參數(shù)的模型,原因很簡單,內(nèi)存或顯存不足。

image-20250208162015630

根據(jù) ollama 上的數(shù)據(jù),滿血版的 DeepSeek-R1 模型,體積高達 404GB,也就是說,至少要這么多內(nèi)存或顯存才能把模型放進去,更不要說實際推理的時候還要花更多的內(nèi)存或顯存。(實際上,內(nèi)存或顯存大概要 700GB 以上才能運行)

很顯然,大部分人是不具備運行滿血版的設備的。

下面就來講述一下如何部署殘血版的 DeepSeek-R1。

安裝 Ollama

Download Ollama 頁面安裝 Ollama

安裝完成后,執(zhí)行以下命令測試是否安裝成功

ollama -v

image-20250208162518801

如果一切正常,應該會輸出 Ollama 的版本號。

如果無法通過命令行調(diào)用,請將 Ollama 的安裝路徑添加到環(huán)境變量。

Ollama 默認會將模型安裝在 C:\Users\%username%\.ollama\models 下,如果你不希望模型放在該路徑下,可以設置 OLLAMA_MODELS環(huán)境變量來指定模型的安裝位置。

運行 Ollama

執(zhí)行以下命令啟動 Ollama 服務。

ollama serve

image-20250208162940406

如果一切順利,就會在 11434 端口啟動一個 http 服務,這時就可以直接通過 API 調(diào)用 Ollama 了。

下載 DeepSeek-R1

這里以最小的 1.5b 模型作為例子,你也可以根據(jù)自己的內(nèi)存、顯存配置使用更大參數(shù)的模型。

具體而言,

如果你的顯存大于模型大小,則走的是 GPU 計算版本,性能更快;

如果顯存小于模型大小,但內(nèi)存大于模型大小,此時走的是 CPU 版本,性能一般,但兼容性好;

如果內(nèi)存小于模型大小,則無法執(zhí)行該模型。

另開一個命令行窗口,執(zhí)行以下命令:

ollama pull deepseek-r1:1.5b

運行 DeepSeek-R1

執(zhí)行以下命令:

ollama run deepseek-r1:1.5b

如果一切順利,就可以看到一個命令行交互窗口,這時就可以直接使用了。

image-20250208170805215

通過 GUI 調(diào)用 Ollama

顯然,通過命令行使用還是不太方便的,此時可以考慮使用 AnythingLLM 來調(diào)用 Ollama。

注意不要關(guān)閉 Ollama 服務,然后在 AnythingLLM 進行以下配置

image-20250208163945299

選擇你需要的模型,然后根據(jù)配置調(diào)整 Max Tokens,也就是上下文長度,上下文太長會很吃配置,一般在 2000~8000 左右,更高配的可以調(diào)高點。

不要忘了點 save changes保存改動。

后續(xù)就可以像之前一樣在工作區(qū)調(diào)用了。

手機端使用 DeepSeek-R1

除了直接使用 DeepSeek 官方 APP 外,你也可以通過第三方 APP 來使用 DeepSeek-R1。

通過 ollama-app 可以直接在手機端訪問 Ollama 模型。

執(zhí)行以下命令獲取電腦 IP 地址:

ipconfig

image-20250208173234127

如果你希望電腦的內(nèi)網(wǎng) IP 是固定的,可以在路由器上綁定 IP 和 MAC 地址

image.png

然后在 ollama-app 端設置主機地址即可。

注意:默認情況下,ollama 是不允許從本機以外的地址訪問的,因此可以在電腦端修改OLLAMA_HOST環(huán)境變量,然后重啟 ollama 服務(注意,需要新開一個命令行激活環(huán)境變量)。

然后就可以從手機端訪問 ollama 了。

image.png

手機端部署 DeepSeek-R1

可能有部分用戶需要真正的手機端本地部署,也就是完全離線的版本,在此僅做簡單說明。

首先下載 Temux linux 環(huán)境模擬器,然后在沙盒中安裝并編譯 llama.cpp,最后下載 DeepSeek-R1 模型。

更多內(nèi)容請參考這篇文章:《一步步教你如何在手機端離線運行 Deepseek-R1 本地模型》

部署 LLM API 聚合系統(tǒng)

你可能還注意到了一個問題:現(xiàn)在 LLM API 服務商那么多,從 OpenAI 切到 DeepSeek,從 DeepSeek 切到硅基流動,每個地方都要改 API 地址和秘鑰,這未免也太麻煩了。

尤其是現(xiàn)在需要用到 LLM 的地方越來越多了,對 LLM API 服務的依賴程度也越來越高了。

所以,就需要類似 one-api 這樣的 LLM API 管理 & 分發(fā)系統(tǒng)來統(tǒng)一管理 LLM API 的調(diào)用了。

one-api 的部署方式非常簡單,通過 Docker Compose 就可以非常方便的部署。

docker-compose.yml 參考內(nèi)容如下:

version: '3.4'

services:
  one-api:
    image: "${REGISTRY:-docker.io}/justsong/one-api:latest"
    container_name: one-api
    restart: always
    command: --log-dir /app/logs
    ports:
      - "3000:3000"
    volumes:
      - ./data/oneapi:/data
      - ./logs:/app/logs
    environment:
      # - SQL_DSN=oneapi:123456@tcp(db:3306)/one-api  # 修改此行,或注釋掉以使用 SQLite 作為數(shù)據(jù)庫
      - REDIS_CONN_STRING=redis://redis
      - SESSION_SECRET=random_string  # 修改為隨機字符串
      - TZ=Asia/Shanghai
#      - NODE_TYPE=slave  # 多機部署時從節(jié)點取消注釋該行
#      - SYNC_FREQUENCY=60  # 需要定期從數(shù)據(jù)庫加載數(shù)據(jù)時取消注釋該行
#      - FRONTEND_BASE_URL=https://openai.justsong.cn  # 多機部署時從節(jié)點取消注釋該行
    depends_on:
      - redis
    healthcheck:
      test: [ "CMD-SHELL", "wget -q -O - http://localhost:3000/api/status | grep -o '\"success\":\\s*true' | awk -F: '{print $2}'" ]
      interval: 30s
      timeout: 10s
      retries: 3

  redis:
    image: "${REGISTRY:-docker.io}/redis:latest"
    container_name: redis
    restart: always

以個人用戶的用量,基本上 SQLite 已經(jīng)可以滿足需求了,無需再啟動一個 MySQL。

然后執(zhí)行以下命令

# 數(shù)據(jù)存儲在 ./data/mysql 文件夾內(nèi)
docker-compose up -d

# 查看部署狀態(tài)
docker-compose ps

總結(jié)

DeepSeek 這一波開源是徹底擊穿了 OpenAI 所塑造的技術(shù)壁壘,將全球的 AI 大模型使用成本拉低到一個全新的價格,這使得以前成本高昂的方案,現(xiàn)在可以以極低的成本實現(xiàn)。

如果說當初 OpenAI 的狂歡是只屬于少部分技術(shù)精英的,那么這一次 DeepSeek 的轟動則是屬于所有人的,是每一個人都可以體驗到的。

未來,AI 的成本還會更低,直到每一個人都能用的起,到那時,才是真正的 AI 時代。

本文作者:草梅友仁
本文地址:https://blog.cmyr.ltd/archives/deepseek-guide-for-everyone-and-programmers.html
版權(quán)聲明:本文采用 CC BY-NC-SA 4.0 協(xié)議 進行分發(fā),轉(zhuǎn)載請注明出處!

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容