:OpenHuman - 真正懂你的本地优先个人 AI 超级助手)
引言“Private, Simple and extremely powerful.”这是一天一个开源项目系列的第101篇文章。今天带你了解的项目是OpenHuman。大多数 AI 助手有一个根本性的局限它们没有记忆。每次对话都从零开始不知道你在做什么项目不知道你的 Gmail 收件箱里有什么不知道你的 GitHub 仓库上周发生了什么。OpenHuman 想解决的正是这件事。它的目标不是做一个更好的聊天机器人而是做一个真正融入你日常生活的 AI 超级智能——每 20 分钟自动拉取你所有集成应用的最新数据把它们压缩进一个本地 SQLite 知识树让 AI 随时能访问你的完整工作上下文。5.6k StarsRust Tauri 构建GPL-3.0 开源早期 Beta 但已展现出独特的技术路线。你将学到什么OpenHuman 的 Memory Tree 架构如何实现真正的持久记忆而非简单的对话历史118 OAuth 集成 每 20 分钟自动同步的工作原理TokenJuice 压缩技术如何把 LLM 调用成本降低最高 80%模型路由Model Routing如何根据任务类型智能选择推理/快速/视觉模型桌面吉祥物Desktop Mascot为什么是差异化的产品设计而不是噱头为什么选择 Rust Tauri 而不是 Electron 是一个重要的架构决策前置知识对 AI 助手和 Agent 有基本了解了解 OAuth 授权的基本概念Rust 开发背景有助于理解技术设计但不是必需的项目背景项目简介OpenHuman 是一个开源的个人 AI 代理助手定位为Personal AI Super Intelligence。它的核心差异化在三个关键词Private私有所有工作流数据本地加密存储不上传到任何云端Simple简单从安装到运行只需几次点击无需终端配置Powerful强大118 应用集成 持久记忆 智能压缩 多模型路由它不只是一个对话框而是一个主动运作的后台代理定期拉取数据、持续更新知识树、在你需要时随时提供完整上下文。作者/团队介绍组织tinyhumansai创建者senamakel项目状态早期 Beta活跃开发中技术选择选用 Rust69.7% TypeScript26.1% Tauri 构建桌面应用而非主流的 Electron体现了对性能和内存占用的高要求项目数据⭐ GitHub Stars:5,600 Forks:459 主要语言:Rust 69.7% TypeScript 26.1% License: GPL-3.0️ 支持平台: macOS、Linux (x64)、Windows 仓库: tinyhumansai/openhuman 官网: tinyhumans.ai/openhuman主要功能核心作用OpenHuman 的本质是一个主动感知你工作上下文的 AI 代理而不是被动响应的聊天机器人。它与传统 AI 助手的核心区别传统 AI 助手: 用户提问 → AI 用训练数据回答 → 对话结束记忆归零 OpenHuman: 后台每 20 分钟: 拉取 Gmail / GitHub / Notion / Slack / ... 最新数据 ↓ Memory Tree: 压缩归档进本地知识树SQLite Obsidian Vault ↓ 用户提问: AI 基于你完整的、最新的工作上下文回答 ↓ 对话结束: 上下文保留下次继续使用场景跨应用的项目上下文理解“把我 GitHub 上这个 PR 的进展总结一下并对比 Linear 里相关 Issue 的最新评论”——AI 已经拉取了两边的数据直接回答。邮件与任务的自动关联“我今天有没有收到关于这个项目的邮件” AI 扫描已同步的 Gmail 数据给出摘要和重要邮件列表。会议助手桌面吉祥物作为参会者加入 Google Meet实时记录、实时提供背景信息。代码与文档的问答基于同步的 GitHub 仓库数据回答关于代码逻辑、历史变更、PR 评论的问题。Obsidian 知识库增强所有同步数据同时写入 Obsidian 兼容的 Vault用户可以在熟悉的笔记界面浏览和编辑 AI 维护的知识。快速开始方法 1直接下载安装包推荐# macOS / Linux一键安装脚本curl-fsSLhttps://raw.githubusercontent.com/tinyhumansai/openhuman/main/install.sh|bash# WindowsPowerShellirm https://raw.githubusercontent.com/tinyhumansai/openhuman/main/install.ps1|iex# 或直接到官网下载安装包# https://tinyhumans.ai/openhuman安装后通过 UI 向导完成选择 AI 模型提供商OpenAI / Anthropic / Ollama 本地模型添加 OAuth 集成从 118 个应用中选择你需要的开始使用方法 2开发者源码构建# 环境要求# - Node.js 24# - pnpm 10.10.0# - Rust 1.93.0含 rustfmt clippy# - CMakegitclone https://github.com/tinyhumansai/openhuman.gitcdopenhumanpnpminstall# 开发模式启动pnpmtauri dev# 生产构建pnpmtauri build配置本地 Ollama 模型完全本地化# 先安装并启动 Ollamaollama serve ollama pull llama3.2# 或其他模型# 在 OpenHuman 设置中选择 Ollama 作为模型提供商# 指向本地端点: http://localhost:11434核心特性1. Memory Tree记忆树——持久记忆的技术实现这是 OpenHuman 最核心的技术创新。它不只是保存对话历史而是构建了一棵真正的知识树原始数据Gmail 邮件 / GitHub PR / Notion 页面 / Slack 消息 ... ↓ 内容规范化HTML → MarkdownURL 缩短去除非 ASCII ↓ 分块处理每块 ≤ 3k tokens ↓ 重要性评分基于时效性、相关性、频次 ↓ 层次化摘要树父节点 子节点摘要的摘要 ↓ 双写入: → SQLite 本地数据库AI 查询用 → Obsidian 兼容 Vault用户浏览用层次化摘要树的优势当 AI 需要回答关于 X 项目的总体状况时直接读取高层摘要节点当需要细节时再向下钻取具体的数据块。这比简单的向量检索更有结构感更像人类的记忆组织方式。2. 118 OAuth 集成 自动同步覆盖主流工作效率工具的完整生态类别代表应用邮件/通讯Gmail、Outlook、Slack项目管理Notion、Linear、Jira、Asana、Trello代码托管GitHub、GitLab、Bitbucket文档协作Google Drive、Dropbox、OneDrive、Confluence日历/会议Google Calendar、Outlook CalendarCRM/营销Stripe、HubSpot、Salesforce其他Airtable、Figma、Zapier、Webhooks…每 20 分钟的自动同步意味着你不需要手动告诉AI 发生了什么——它自己会去取。3. TokenJuice——LLM 调用成本压缩技术TokenJuice 是 OpenHuman 的一个内部技术模块在所有内容送入 LLM 之前进行压缩处理原始工具输出 / 网页抓取内容 / API 响应 ↓ TokenJuice 处理管道: 1. HTML → 纯 Markdown去掉所有 HTML 标签 2. URL 缩短将长 URL 替换为短标识符 3. 去除非 ASCII 字符表情符号、特殊符号 4. 冗余内容去重导航栏、页脚、广告等 5. 关键信息提取标题、正文、元数据 ↓ 压缩效果: 成本和延迟最高降低 80%对于频繁调用 LLM 的 Agent 来说这个压缩层的价值是显著的——一个月的 API 费用可能直接减少一半以上。4. 智能模型路由Model Routing不同的任务适合不同的模型OpenHuman 会自动路由任务类型路由目标原因复杂推理代码分析、方案设计推理模型o3、Claude Opus准确性优先简单问答查找数据、格式转换快速模型GPT-4o-mini、Haiku成本和速度优先图片/截图分析视觉模型GPT-4V、Claude Vision多模态需求完全离线场景Ollama 本地模型隐私优先5. 桌面吉祥物Desktop Mascot这不是一个纯粹的 UI 噱头而是一个具备实际功能的后台代理界面会议参与作为参与者加入 Google Meet实时记录讨论内容背景处理持续在后台运行处理定时同步任务主动提醒基于日历和任务数据主动提醒即将到期的事项个性化交互有个性和记忆而非无状态的帮助机器人6. 本地优先隐私架构所有工作流数据 → 本地 SQLiteAES 加密 AI 推理 → 可选本地 Ollama完全离线 OAuth Token → 本地加密存储不经过 OpenHuman 服务器 第三方数据 → 只存在你的设备上这与大多数 AI 助手把你的数据发送到云端进行索引的方式截然不同。项目优势对比项OpenHumanNotion AI / CopilotChatGPT / Claude.aiMem.ai持久记忆✅ Memory Tree知识树仅限平台内内容❌ 每次对话重置✅ 但云端存储跨应用集成✅ 118 OAuth 应用有限❌有限本地/隐私✅ 本地 SQLite 加密❌ 云端❌ 云端❌ 云端自动同步✅ 每 20 分钟无无有开源✅ GPL-3.0❌❌❌桌面原生✅ Rust TauriWeb 插件WebWeb本地 AI 模型✅ Ollama 支持❌❌❌项目详细剖析1. 为什么选 Rust Tauri而不是 Electron这是 OpenHuman 最有意识的架构决策之一Electron 的问题每个 Electron 应用内置一个完整的 Chromium 引擎基本内存占用通常在 200-500MBCPU 占用较高后台运行影响电池续航Tauri Rust 的优势Tauri 使用系统原生 WebViewmacOS 用 WKWebViewWindows 用 WebView2核心逻辑用 Rust 编写内存安全、零成本抽象、极低内存占用通常 50MB构建产物更小一个 Tauri 应用通常 3-10MB而 Electron 通常 100MB对于一个需要常驻后台、每 20 分钟运行同步任务的应用这个架构选择直接决定了用户体验OpenHuman 的资源占用更接近一个原生系统应用而不是一个重量级 Web 应用。2. Memory Tree vs 向量检索两种记忆哲学大多数带记忆功能的 AI 工具使用向量数据库把内容分块、向量化检索时找最相似的块。OpenHuman 选择了不同的路径——层次化摘要树向量检索方式: 输入: X 项目现在怎么样了 → 向量搜索找到 Top-K 相似块可能来自不同时间、不同视角 → 拼接成上下文 → LLM 回答 问题: 碎片化缺乏整体视图 Memory Tree 方式: 输入: X 项目现在怎么样了 → 直接查询 X 项目 节点的高层摘要 → 需要细节时向下展开子节点 → 回答具有层次感和整体感这两种方式各有适用场景OpenHuman 的选择更适合理解一个长期项目的整体状态这类问题。项目地址与资源官方资源GitHub: https://github.com/tinyhumansai/openhuman官网下载: https://tinyhumans.ai/openhuman适用人群知识工作者同时使用多个 SaaS 工具Gmail Notion GitHub Slack需要 AI 跨工具理解上下文独立开发者 / 一人公司项目管理、代码、邮件全靠自己希望 AI 助手真正懂你的项目状态隐私敏感用户不希望工作数据上传到 AI 公司的云端AI 工具研究者对本地优先 AI 助手的架构设计感兴趣总结与展望核心要点回顾Memory Tree层次化摘要树 SQLite 本地存储真正的跨会话持久记忆118 OAuth 每 20 分钟自动同步让 AI 主动感知你的工作上下文而不是被动等待TokenJuiceLLM 调用前的智能压缩成本最高降低 80%Rust Tauri原生桌面应用架构后台常驻占用极低本地优先隐私所有数据加密存储在本地支持完全离线的 Ollama 本地模型一句话评价OpenHuman 在构建一个 AI 助手里最难做的事让 AI 真正了解你——不是通过你告诉它而是通过它主动观察你的工作世界。欢迎来我的个人主页找到更多有用的知识和有趣的产品