本地大模型运行工具 Ollama 现已正式成为 OpenClaw 的官方模型提供商。
一键接入
执行命令 openclaw onboard --auth-choice ollama 即可完成接入,所有 Ollama 模型将与 OpenClaw 无缝协作。
混合调用模式
本次接入提供 “Cloud + Local”混合模式,支持同时调用:
- Ollama 云端托管模型
- 本地运行的 Ollama 模型
核心功能
- OpenClaw 向导自动检测本地已安装的 Ollama 模型。
- 通过 Ollama 原生 API 支持流式传输和工具调用。