C
ChaoBro

openhuman:把私人 AI 跑在本地的新思路,但别被"超级智能"四个字唬住

openhuman:把私人 AI 跑在本地的新思路,但别被"超级智能"四个字唬住

「Your Personal AI super intelligence.」

openhuman 的 README 上写着这句标语。私人 AI 超级智能——听起来像是某个科幻电影的开场白。但剥开营销话术,这个项目确实有些值得看的东西。

它到底是什么

openhuman 是一个本地优先的个人 AI 框架。核心理念是:你的 AI 助手应该跑在你自己的设备上,数据不外传,模型你选,行为你控。

跟 Ollama、LM Studio 这些本地推理工具不同的是,openhuman 不止是个模型加载器。它有自己的 agent 架构、记忆系统、技能机制,还带了一个桌面端 mascot(就是你屏幕上那个会睡觉、hover 会醒的小图标)。

1671 commits,47 个 tags,最近 3 分钟还在合 PR。团队迭代速度不慢。

值得关注的几个点

CEF 架构:项目用的是 CEF(Chromium Embedded Framework)做桌面端,不是 Electron。这个选择说明团队对资源占用有意识——CEF 通常比 Electron 轻量。对于"本地优先"的定位来说,这点很重要。你不能宣称隐私友好,结果吃掉了用户 2GB 内存。

技能系统.agents/agents 目录下有一套 skills 机制,看起来是插件化的能力扩展。这跟 Claude Code 的 skills 概念类似,但 openhuman 是开源的,意味着社区可以自己写技能。

多平台支持:从 commits 里能看到 Android 和 MediaPipe LLM 集成的痕迹,说明团队在往移动端扩展。如果能把个人 AI 跑在手机上,这个定位才真正成立。

mascot 交互:最近合了一个「sleep by default, wake on hover/click」的 PR。桌面端有个小图标,默认休眠,鼠标放上去才唤醒。这种设计在「始终在线的 AI 助手」和「不打扰用户」之间找了个平衡点。

现实的差距

1.3k star 的体量,45 个 open issues,12 个 open PRs——项目还在早期阶段。

「超级智能」这四个字目前只是个愿景。实际的 AI 能力取决于你挂载的模型。openhuman 本身不提供模型,它是个壳。你给它挂 Qwen 3.6,它就是 Qwen 3.6 的能力;挂 Gemma 4,它就是 Gemma 4 的能力。

所以真正决定它好不好用的,是两件事:

第一,本地推理的效率。在消费级硬件上能跑多大的模型?响应延迟多少?内存占用多少?文档里没有明确的基准数据。

第二,agent 框架的成熟度。记忆系统怎么工作?跨会话的上下文怎么维护?技能调用的可靠性如何?这些都需要实际跑过才知道。

适合谁

  • 在意数据隐私,不想把对话发给云端的人
  • 想在本地跑一个"始终可用"的 AI 助手,不用每次打开浏览器
  • 对 agent 框架有开发兴趣,想自己写 skills 的人

不适合谁:

  • 想要开箱即用的最强 AI 体验的人(直接用 Claude Pro 或者 ChatGPT Plus)
  • 没有本地 GPU 的人(纯 CPU 推理体验会比较痛苦)
  • 对「超级智能」有太高预期的人(它目前是个框架,不是一个产品)

判断

openhuman 的方向是对的。本地优先、数据私有、模型自选——这些理念在 AI 助手越来越云化的趋势下是个重要的补充。

但"超级智能"这个定位还需要时间兑现。目前更准确的描述是:一个有野心的本地 AI agent 框架,正在快速迭代中。

值得关注,但别现在就把它当主力。等它到 5k star 的时候再回来看看。

主要来源: