「Your Personal AI super intelligence.」
openhuman 的 README 上写着这句标语。私人 AI 超级智能——听起来像是某个科幻电影的开场白。但剥开营销话术,这个项目确实有些值得看的东西。
它到底是什么
openhuman 是一个本地优先的个人 AI 框架。核心理念是:你的 AI 助手应该跑在你自己的设备上,数据不外传,模型你选,行为你控。
跟 Ollama、LM Studio 这些本地推理工具不同的是,openhuman 不止是个模型加载器。它有自己的 agent 架构、记忆系统、技能机制,还带了一个桌面端 mascot(就是你屏幕上那个会睡觉、hover 会醒的小图标)。
1671 commits,47 个 tags,最近 3 分钟还在合 PR。团队迭代速度不慢。
值得关注的几个点
CEF 架构:项目用的是 CEF(Chromium Embedded Framework)做桌面端,不是 Electron。这个选择说明团队对资源占用有意识——CEF 通常比 Electron 轻量。对于"本地优先"的定位来说,这点很重要。你不能宣称隐私友好,结果吃掉了用户 2GB 内存。
技能系统:.agents/agents 目录下有一套 skills 机制,看起来是插件化的能力扩展。这跟 Claude Code 的 skills 概念类似,但 openhuman 是开源的,意味着社区可以自己写技能。
多平台支持:从 commits 里能看到 Android 和 MediaPipe LLM 集成的痕迹,说明团队在往移动端扩展。如果能把个人 AI 跑在手机上,这个定位才真正成立。
mascot 交互:最近合了一个「sleep by default, wake on hover/click」的 PR。桌面端有个小图标,默认休眠,鼠标放上去才唤醒。这种设计在「始终在线的 AI 助手」和「不打扰用户」之间找了个平衡点。
现实的差距
1.3k star 的体量,45 个 open issues,12 个 open PRs——项目还在早期阶段。
「超级智能」这四个字目前只是个愿景。实际的 AI 能力取决于你挂载的模型。openhuman 本身不提供模型,它是个壳。你给它挂 Qwen 3.6,它就是 Qwen 3.6 的能力;挂 Gemma 4,它就是 Gemma 4 的能力。
所以真正决定它好不好用的,是两件事:
第一,本地推理的效率。在消费级硬件上能跑多大的模型?响应延迟多少?内存占用多少?文档里没有明确的基准数据。
第二,agent 框架的成熟度。记忆系统怎么工作?跨会话的上下文怎么维护?技能调用的可靠性如何?这些都需要实际跑过才知道。
适合谁
- 在意数据隐私,不想把对话发给云端的人
- 想在本地跑一个"始终可用"的 AI 助手,不用每次打开浏览器
- 对 agent 框架有开发兴趣,想自己写 skills 的人
不适合谁:
- 想要开箱即用的最强 AI 体验的人(直接用 Claude Pro 或者 ChatGPT Plus)
- 没有本地 GPU 的人(纯 CPU 推理体验会比较痛苦)
- 对「超级智能」有太高预期的人(它目前是个框架,不是一个产品)
判断
openhuman 的方向是对的。本地优先、数据私有、模型自选——这些理念在 AI 助手越来越云化的趋势下是个重要的补充。
但"超级智能"这个定位还需要时间兑现。目前更准确的描述是:一个有野心的本地 AI agent 框架,正在快速迭代中。
值得关注,但别现在就把它当主力。等它到 5k star 的时候再回来看看。
主要来源: