OpenClaw快速接入Ollama本地模型教程

发布时间:2026/5/16 0:12:00

OpenClaw快速接入Ollama本地模型教程 OpenClaw 连接 Ollama 图文教程前置准备OpenClaw Windows 已成功安装并运行正常。Gateway 状态显示为在线位于 OpenClaw 顶部界面。当前电脑网络连接正常能够顺利访问 Ollama 官方网站。磁盘空间充足满足本地模型存储需求通常需要较大空间。建议预先确认要下载的模型名称如 gemma4:e4b 等具体型号。open claw部署包https://xiake.yun/api/download/package/14?promoCodeIVD643FDE29A图文步骤步骤 1打开 Ollama 官网并下载最新版安装包先打开 Ollama 官网首页https://ollama.com/进入页面后点击右上角的Download准备下载安装最新版 Ollama。步骤 2选择 Windows 版本下载进入下载页面后选择Windows点击Download for Windows这样就会开始下载 Windows 版 Ollama 安装包。步骤 3安装 Ollama下载完成后双击安装程序。 在安装窗口中点击Install然后等待安装完成即可。步骤 4打开 Ollama 设置页安装完成并启动 Ollama 后进入左侧菜单。 点击Settings准备修改本地模型的存储位置。步骤 5修改模型存储路径在设置页面中找到Model location。 点击Browse把模型存储目录改到你希望保存模型的磁盘位置例如图中的E:\models。如果你不想改存储位置也可以保留默认路径继续使用。步骤 6打开 Windows 终端在 Windows 桌面上右键开始菜单。 然后点击终端 Powershell打开命令行窗口步骤 7执行命令拉取并运行模型在终端中输入你要下载的模型命令例如ollama run gemma4:e4b第一次执行时Ollama 会自动开始下载对应模型。 下载完成后终端里会显示success。步骤 8在 Ollama 客户端确认模型已下载回到 Ollama 客户端在模型选择列表里找到刚刚下载的模型例如gemma4:e4b。 如果模型右侧不再是未下载状态就说明模型已经拉取成功。步骤 9在 OpenClaw 中配置 Ollama 地址并测试回到 OpenClaw点击右上角设置进入左侧模型配置找到Ollama在地址栏输入http://127.0.0.1:11434点击测试点击右上角保存全部配置测试成功后OpenClaw 会识别到已下载的本地模型。步骤 10在聊天页选择 Ollama 模型进入 OpenClaw 左侧聊天页面。 在模型选择框中搜索刚才下载的模型名称例如gemma4:e4b。 注意确认模型后面的标签是ollama再点击选中。步骤 11发送消息测试模型是否可用选择好模型后直接在聊天输入框中发送一条测试消息例如你好你是什么模型如果页面能够正常返回内容就说明 Ollama 已经成功接入 OpenClaw。接入完成后的自检清单已从 Ollama 官网下载并安装 Windows 版本。已成功启动 Ollama。已按需修改模型存储路径。已在终端执行ollama run 模型名命令。模型下载完成后终端显示success。OpenClaw 中 Ollama 地址已填写为http://127.0.0.1:11434。已点击测试并识别到可用模型。已点击保存全部配置。聊天页中已选中带ollama标签的模型。已成功发送测试消息并收到回复。常见问题1. Ollama 地址应该填什么一般本机默认填写http://127.0.0.1:11434如果 Ollama 就安装在当前这台电脑上通常直接使用这个地址即可。2. 为什么点击测试后没有识别到模型优先检查下面几项Ollama 是否已经正常启动。是否已经在终端执行过ollama run 模型名。模型是否已经下载完成。地址是否填写为http://127.0.0.1:11434。是否被本机防火墙或安全软件拦截。3. 为什么需要先在终端里运行一次模型因为ollama run 模型名在首次执行时会自动下载模型。 只有模型真正下载到本地后OpenClaw 才能在测试时识别到它。4. 模型文件太大怎么办本地模型通常比较占磁盘空间。 如果系统盘空间不足建议像教程里一样先把Model location修改到容量更大的磁盘再下载模型。附上open claw部署包​​​​​​​https://xiake.yun/api/download/package/14?promoCodeIVD643FDE29A

相关新闻