OpenAgent:单文件版龙虾——仅有一个文件,双击就能跑的高性能 Agent

查看 15|回复 0
作者:veotax   
Hi V 友们,我是 OpenAgent 团队的开发者。
今天想给大家介绍一个我们打磨了很久的项目 —— OpenAgent,一个面向个人开发者和极客的开源本地 AI Agent 。定位跟 OpenClaw 、Hermes 类似,都是「个人本地助手」这个赛道,但我们走了一条完全不同的路:用 Go 语言写成一个单文件二进制,下载 exe 双击就能跑,零配置开箱即用
一句话定位:开箱即用的单文件本地 Agent ,效果更稳、延迟更低、资源占用更少。
GitHub:github.com/the-open-agent/openagent(求 Star ⭐)
官网:openagentai.org
一、为什么做这件事
现在用 AI 干活的人越来越多 —— 不只是写代码,做 PPT 、跑脚本、查资料、整理文档,大家都在用 Agent 。但用过一段时间,绝大多数人都会撞上同一堵墙:部署成本
市面上不少「知名」 Agent 是结构性的依赖怪兽 —— 一个完整环境下来,Node.js 、Python 、Docker 、WSL 层层嵌套。问题往往不在模型本身,而在 Agent 的交付形态:依赖膨胀、文件散落数万、配置繁琐、迁移困难。每一层都在消耗用户耐心,月底还要被账单教育一次。
OpenAgent 的取舍从第一天就很明确:把「单文件零配置」做成顶层设计目标,而不是事后打的补丁。我们选了一条更硬核的路 —— 用 Go 从零写成一个单二进制文件,没有运行时依赖,没有安装器,没有 Docker 。前端的 React 直接 embed 进二进制里,后端就是纯 Go ,一个进程监听 14000 端口。
这就是今天的 OpenAgent 。
二、不止轻量 —— 这是一个完整的 Agent 工作平台
OpenAgent 不只是一个跑得快的单文件,配套的是一整套日常工作流要用的能力:
  • 🤖 30+ 模型提供商:OpenAI 、Claude 、DeepSeek 、Gemini 、Mistral 、Grok……随时切换,无需改代码
  • 🌐 Browser-Use:驱动真实浏览器,导航、点击、填表、截图
  • 🖥️ Shell Execution:本地命令执行,支持 PTY 交互式会话
  • 📄 Office 自动化:读写 Word 、Excel 、PowerPoint
  • 🔗 MCP 集成:任意 MCP 兼容服务器即插即用
  • 📚 RAG 知识库:PDF/Word/Excel 自动切片、嵌入、索引
  • ⚡ 工作流编排:BPMN 风格可视化拖拽编排
  • 📊 管理后台:Token 用量统计、活动监控、工具管理、请求日志

    三、直接亮数据:效果与延迟横评 OpenClaw
    架构做完了,效果到底怎么样?我们花了十多天做横向评测,把 OpenAgent 和 OpenClaw 拉到同一条起跑线。统一用 deepseek/deepseek-v4-flash 作为底层模型,这是目前性价比较高的模型,最容易暴露各家 Agent Harness 的真实水平。
    3.1 Agent Tool 调用对标(核心效果)
    12 个任务 × 3 轮 = 36 次计分,统一模型、统一 prompt:
    [td]指标[/td]
    [td]OpenAgent[/td]
    [td]OpenClaw[/td]
    成功率
    **83.33%**( 30/36 )
    61.11%( 22/36 )
    平均耗时
    14,183 ms
    26,128 ms
    平均 Token
    1,312
    2,362
    合规率
    90.0
    76.67
    覆盖率
    97.5
    91.67
    综合分
    91.14
    78.41
    一句话总结:成功率更高、速度更快、Token 更省。OpenAgent 每轮平均耗时比 OpenClaw 少约 11.9 秒,Token 消耗少约 1,050 。36 轮真实执行,判分由自动化脚本完成,无人工干预。
    3.2 对话场景性能
    [td]指标[/td]
    [td]OpenAgent[/td]
    [td]OpenClaw[/td]
    完成率
    100%
    95%
    格式正确率
    100%
    82.5%
    事实准确率
    100%
    92.5%
    平均延迟
    3,991 ms
    26,781 ms
    OpenAgent 在对话场景下完成率、格式正确率、事实准确率均达到 100%,平均延迟约 4 秒; OpenClaw 平均延迟约 26.8 秒。
    3.3 项目本体性能
    [td]维度[/td]
    [td]OpenAgent[/td]
    [td]OpenClaw[/td]
    冷启动就绪
    ~2.7 s
    ~29.2 s
    常驻内存
    ~110 MB
    ~215–307 MB
    安装体积
    exe ~23 MB
    ~382 MB / 42,000+ 文件
    TTFT (首包延迟)
    ~23 ms
    ~44 ms
    冷启动:OpenAgent 中位数 2.7 秒就能通过 health 检查返回 HTTP 200 ,OpenClaw 需要 29.2 秒。
    体积:OpenAgent 单文件约 23 MB ,OpenClaw 整块目录约 382 MB ,文件数超过 4 万。这不是「精简功能换体积」,而是 Go 静态编译 + 前端 embed 的架构优势。
    内存:空闲状态下 OpenAgent 约 110 MB ,OpenClaw 约 215–245 MB 。压测后 OpenAgent 约 120 MB ,OpenClaw 约 307 MB 。
    四、凭什么效果更好、延迟更低 —— 3 个工程决策
    不是「砍功能换性能」,是每一层都做对了选择。
    ① Single Binary:一个文件,零依赖
    Go 静态编译,前端 React build 后直接 embed 进二进制。Windows 用户下载 exe 双击就能跑,不需要 WSL 、不需要 Docker 、不需要 Node.js 。Mac/Linux 一条命令安装。这才是「个人本地 Agent 」该有的交付形态。
    ② Shell 执行带边界,安全可控
    源码层面,tool/shell.go 定义了默认超时 30 秒、最大 300 秒、PTY 可选、会话式 poll/write/submit 等机制。Shell 能力在默认实现上是强约束的生产向工具,而非无限制远程执行。同时支持审计日志、SSO 、请求日志等企业级可观测性。
    ③ Go 原生并发,内存可控
    Go 的 goroutine + channel 模型让高并发场景下的内存增长非常克制。80 路并发 health 压测,内存仅增长 10 MB 。对比 Node.js 的内存曲线,这是语言层面的结构性优势。
    五、坦白说几句,欢迎来挑战
    离「完美」还有多远,先把几件事说清楚:
    [ol]
  • Lighthouse 综合分:OpenClaw 87 分,我们 45 分。这是前端加载性能,我们用的 Lighthouse 11 版本与 OpenClaw 测试版本可能不同,分数不宜跨版本强比。但确实说明我们的前端还有优化空间。
  • 顺序 health P50:OpenClaw 约 20 ms ,我们约 33 ms 。毫秒级差距,对个人本地 Agent 参考意义有限。
  • 配置前提:聊天 API 需要 Authorization: Bearer ,不是「完全零步骤」。但相比装 Node.js 、配 Docker 、拉数万文件,我们的摩擦已经降到极低。
    [/ol]
    欢迎你来挑战
  • 下载 OpenAgent ,用你自己的 OpenRouter Key
  • 跑同样的 prompt 对比账单
  • 跑出比我们更快/更省的,欢迎 PR ;跑出我们更贵的,提 issue 我们改

    六、关于 Go 重写
    可能有朋友会问:做 AI Agent 不是 Python 的天下吗,怎么用 Go ?
    Agent 的瓶颈在 LLM 调用而非语言性能 —— 决定一个 Agent 跑得好不好的,是 Harness 层的架构设计,不是底层语言的执行速度。Go 的优势在于:静态编译单文件、内存可控、并发模型简洁、跨平台原生支持。这些特性对于「个人本地 Agent 」这个场景来说,比 Python 的动态灵活性更重要。
    我们用 Go 写了三个月,从零到一,做出了这个内核。
    七、谁用谁爽 —— 几类典型场景
    🔧 程序员 / 开发者:CLI 形态直接替代 Claude Code ,BYOK 用自己的 Key ,本地 Shell 、Browser 、Office 工具一键调用。
    🏠 个人用户 / 极客:同样的机器配置,原本跑一个 Agent 就卡,现在能轻松跑多个 —— 内存占用不到同类的一半。
    💼 自由职业者 / 一人公司:做客户提案、写咨询报告、出竞品分析、整理材料 —— 本地跑,数据不出本机,省下来的就是安全感。
    八、怎么上手
    Windows (最省心,推荐)
  • 去 GitHub Releases 下载 openagent_windows_x86.exe
  • 双击即用,环境/依赖全自动就位
  • 打开 http://localhost:14000

    macOS / Linux / WSL
    curl -fsSL https://raw.githubusercontent.com/the-open-agent/openagent/master/scripts/install.sh | bash
    Windows PowerShell
    irm https://raw.githubusercontent.com/the-open-agent/openagent/master/scripts/install.ps1 | iex
    模型怎么接
  • 项目启动前端界面一键配置,支持几乎所有主流大模型,包括本地部署的模型。
  • 下载与文档:openagentai.org

    九、最后
    OpenAgent 是 Apache 2.0 开源项目,代码全在 GitHub 上,欢迎审阅、欢迎 Star 、欢迎提 issue 。
    我们坚信:个人本地 Agent 的未来,不是越来越重,而是越来越轻。 一个文件,双击即用,这才是用户真正想要的。
    GitHub:github.com/the-open-agent/openagent ⭐
    测评集代码:github.com/the-open-agent/agentbench
    QQ 群:963536134
  • 您需要登录后才可以回帖 登录 | 立即注册

    返回顶部