使用ollama搭建本地大模型

一、背景

運行環(huán)境,mac mini,24GB運存共享顯存,M4芯片。

二、步驟

(一)部署ollama

用來運行大模型的開源工具,原生安裝,官網(wǎng)官話下載雙擊安裝就行,暫時不用docker。

(二)部署模型: llama3.2:1b

可以搜索ollama支持的模型,注意模型參數(shù)量匹配的版本

默認(rèn)模型存放目錄

~/.ollama/models

ollama run llama3.2:1b
ollama_installed.png

(三)部署openWebUI

openWebUI 就是像chatGPT一樣的聊天UI,適配各種LLM大模型。
如果ollama和openWebUI在同個服務(wù)器。

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

如果ollama和openWebUI不在同個服務(wù)器:

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

(四)使用

訪問 http://localhost:3000
創(chuàng)建管理員賬號:

linyawen
76423374@qq.com
123456

即可使用:


openWebui_installed.png

三、擴(kuò)展

(一)多部署幾個模型

ollama run qwen2.5:0.5b
ollama run deepseek-r1:1.5b
# 查看 已經(jīng)部署的模型
ollama list

(二)openWebUI競品chatboxai對比

選擇 OpenWebUI:如果您主要關(guān)注 本地模型,追求輕量級和快速響應(yīng),尤其是與 Ollama 集成,那么 OpenWebUI 是理想選擇。

選擇 ChatboxAI:如果您希望擁有更強(qiáng)的 擴(kuò)展性、多用戶支持,或者需要與多種云端 API 交互,ChatboxAI 更適合您

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容