OpenClaw + Ollama
Ollama
Install Ollama on Mac
brew install ollama
Run Qwen3 model on local, https://ollama.com/library/qwen3
ollama serve
## 或者 用 brew 讓 ollama 常駐后臺
## brew services start ollama
ollama run qwen3:4b
OpenClaw
使用 docker-compose 來運行 OpenClaw, 內(nèi)容在 docker-compose.yml 中。
version: "3.8"
services:
openclaw:
image: ghcr.io/openclaw/openclaw:latest
container_name: openclaw-agent
ports:
- "18789:18789" # API 服務(wù)端口
- "18791:18791" # 前端訪問端口
volumes:
- ./openclaw/data:/home/node/.openclaw # 配置
- ./openclaw/logs:/tmp/openclaw/ # 日志
restart: always
準(zhǔn)備工作
第一次運行需要做一些配置
- 啟動 OpenClaw
docker-compose up
啟動成功后,查看 openclaw/data/openclow.json 文件:
- 記住 token 的值
- 修改
allowedOrigins允許所有源訪問"*" - 在 gateway 下修改
- UI端口:
"port": 18798 - Bind:
"bind": "lan"
- UI端口:
- 配對 Pairing
瀏覽器訪問 http://127.0.0.1:18789/
- Gateway Token 欄填入剛剛的 token
需要在容器內(nèi)部做一些操作來進(jìn)行配對
docker exec -it openclaw-agent bash
node dist/index.js devices list --token <your_token_value> --url ws://127.0.0.1:18789
# 此時顯示 Pending 狀態(tài), 復(fù)制 Request 列中的值,這個就是等待配對的瀏覽器
node dist/index.js devices approve <request_id>
# 此時你會看到配對成功 Approved your_device_id
# Example:
# node dist/index.js devices list --token da70c6c2d5ca66f3a7dc6f4e3b76038826b10e782e55f0da --url ws://127.0.0.1:18789
# node dist/index.js devices approve --token your_token_value da70c6c2d5ca66f3a7dc6f4e3b76038826b10e782e55f0da
或者使用OpenClaw命令:
docker exec -it openclaw-agent bash
openclaw devices list
openclaw devices approve <request_id>
此時再返回網(wǎng)頁中進(jìn)行 connect, 認(rèn)證完成。
配置模型
[可選] 在 openclaw.json 修改OpenClaw使用的上下文窗口大小, 默認(rèn)是 4096, 推薦使用 64K
- contextWinidow:
- maxToken:
繼續(xù)在 docker continer 中執(zhí)行命令
openclaw config
- Local (this machine)
- Model
- Customer Provider
- API Base URL: http://host.docker.internal:11434/v1
- 但是因為我們的 OpenClaw 是在容器中運行的,我們需要訪問宿主機(jī)上的 11434 端口
- 所以 URL: http://host.docker.internal:11434/v1
- Past API key now: ollama-local 隨意添加內(nèi)容作為秘鑰, 因為是本地模型
- Endpoint compatibility: OpenAI-compatible
- Model ID: qwen3:4b (填寫你運行的具體model)
配置成功后顯示 Verification successful.
Note:
也可以使用 Github Copilot 模型,設(shè)備認(rèn)證之后使用下面的命令設(shè)置模型
openclaw models set github-copilot/gpt-4o
總結(jié)
簡單總結(jié)一下,體驗了 OpenClaw 連接 Ollama 本地運行的小模型,速度實在是太慢了,一分鐘才能得到響應(yīng)。如果沒有合適的機(jī)器(主要是顯卡顯存)的話,還是建議直接連大模型API。