低配置电脑适配 OpenClaw 搭配 Ollama 流畅使用技巧

发布时间:2026/5/17 3:38:31

低配置电脑适配 OpenClaw 搭配 Ollama 流畅使用技巧 前置准备获取小龙虾open claw一键安装包www.totom.top并安装电脑已成功安装运行 OpenClaw 客户端顶部 Gateway 状态保持在线网络正常可顺利访问 Ollama 官方网站电脑空余磁盘空间充足本地 AI 模型占用体积较大提前确定好想要部署的本地模型名称方便一键拉取部署图文详细操作步骤步骤 1进入 Ollama 官网下载安装包打开 Ollama 官方网站https://ollama.com/点击页面右上角Download进入下载专区。步骤 2选择 Windows 系统版本下载在下载页面找到 Windows 选项点击Download for Windows自动下载适配电脑的安装程序。步骤 3完成 Ollama 客户端安装双击运行下载好的安装包直接点击Install等待程序自动完成安装即可无需额外复杂设置。步骤 4进入客户端设置界面安装完成启动 Ollama在左侧菜单栏找到并点击Settings进入系统设置页面。步骤 5修改本地模型存放路径找到Model location模型存储位置选项点击浏览将路径更改至空间充足的磁盘目录例如E:\models避免占用 C 盘系统空间不想修改可直接保留默认路径。步骤 6打开 Windows 终端命令行右键电脑开始菜单选择终端PowerShell调出命令运行窗口。步骤 7终端命令一键拉取本地模型在终端输入拉取运行命令格式ollama run 模型名称示例plaintextollama run gemma4:e4b首次执行自动下载模型下载完成终端提示 success 即为部署成功。步骤 8客户端核验模型状态返回 Ollama 主界面在模型列表找到刚刚下载的模型状态显示正常无下载提示代表本地模型部署完毕。步骤 9OpenClaw 配置 Ollama 本地接口点击 OpenClaw 右上角设置左侧选择模型配置找到 Ollama 配置项接口地址填写http://127.0.0.1:11434点击测试连接识别本地模型后点击保存全部配置步骤 10聊天界面切换本地 Ollama 模型进入左侧聊天页面在模型搜索框输入已下载的模型名称选中带有ollama标识的模型即可使用。步骤 11发送消息完成最终测试输入测试语句你好介绍一下自己能够正常稳定输出回复代表 OpenClaw 成功连通本地 Ollama 大模型。接入完成自检清单✅ 成功下载并安装 Windows 版 Ollama✅ 顺利启动客户端自定义完成模型存储路径✅ 终端执行拉取命令本地模型下载完成✅ OpenClaw 正确填写本地接口地址✅ 接口测试连通正常已保存所有配置✅ 聊天列表成功加载 Ollama 本地模型✅ 发送对话可正常交互使用常见问题解答Ollama 固定填写接口地址是多少本地电脑部署统一填写http://127.0.0.1:11434无需修改端口。测试连接无法识别本地模型检查 Ollama 是否后台正常运行、模型是否完整下载完成、本地防火墙是否拦截端口重新运行一次模型命令再测试。必须用终端运行模型吗首次必须通过ollama run命令触发下载下载完成后后台常驻即可正常调用。本地模型体积过大卡顿怎么办优先选择轻量化小参数模型使用同时将模型存放至固态硬盘提升加载与响应速度。官方地址Ollama 官网https://ollama.com/小龙虾open claw一键安装包www.totom.top

相关新闻