本地大模型运行工具 Ollama 现已正式成为 OpenClaw 的官方模型提供商。

一键接入
执行命令 openclaw onboard --auth-choice ollama 即可完成接入,所有 Ollama 模型将与 OpenClaw 无缝协作。

混合调用模式
本次接入提供 “Cloud + Local”混合模式,支持同时调用:

  • Ollama 云端托管模型
  • 本地运行的 Ollama 模型

核心功能

  • OpenClaw 向导自动检测本地已安装的 Ollama 模型。
  • 通过 Ollama 原生 API 支持流式传输和工具调用。

🔥 实时行情点位,群内抢先看!

进群蹲精准做单提示→青岚免费交易社群 (电报)

以上仅为青岚姐个人观点,不作为投资建议,交易需谨慎|本文由青岚加密课堂整理优化