[造轮子] 怕跑 API 一觉醒来房子没了?随手写了个免安装的本地 OpenClaw 客户端(内置 QQ 机器人)

查看 14|回复 1
作者:flygfch   
大家好,本人野生程序员。
最近身边很多不懂代码的朋友想折腾 OpenClaw 玩玩。但拦住他们的除了“配环境”,还有一个最大的恐惧:“按 Token 计费的 API”。
现在很多自媒体博主讲的,那种“让他给我整理个桌面,花了几十刀”的鬼故事也非常多了。
既然现在开源模型这么强,买的电脑配置又处于性能过剩状态,为啥不直接跑本地呢?所以周末手搓了一个套壳桌面小工具,起名叫 WhereClaw (自由龙虾)
核心主打一个“安全感”和“零门槛”:
[ol]
  • 免费本地模型: 内置本地模型,吃的是你自己的电费。随你怎么造,无限火力,再也不用担心一觉醒来房子没了。
  • 硬件要求丰俭由人: 有独立显卡最好起飞;用 Mac (M 系列芯片) 跑起来也很丝滑;甚至只有核显和 CPU 也能硬跑。
  • 一键接入技能 skill: 完美接入了 Clawhub 插件生态,超过一万多个现成的技能工具,在软件里全部可以一键点击安装。
  • 极致防呆: 各种环境依赖全打包了,去掉了复杂的网络配置。小白下载后,双击直接运行。
  • 内置 QQ 通道: 顺手加了个一键接入 QQ 群机器人的功能,配好后直接使用 QQ 机器人控制电脑。
  • 开源免费: 已经开源在 GitHub 上了,可以放心使用。
    [/ol]
    官网地址(直接下载): https://whereclaw.com
    GitHub 地址: https://github.com/whereclaw/whereclaw
    目前支持 Windows x64 和 macOS M 系列这两个平台。
    丑话说在前面(一点真实的免责声明):
    毕竟是本地运行大模型,为了不拉高小白的不合理预期,必须说明一下本地模型的“物理规律”:
    [ol]

  • 智商高低,完全取决于你的机器配置: 如果你有 4090 或者高配 Mac Studio ,能部署高参数模型,那它的效果绝对媲美甚至替代顶级付费大模型。但如果你用的是普通轻薄本,受限于显存只能跑基础小模型,那它更适合做日常陪聊、翻译和基础问答。有多大锅,下多大米。

  • 技能“装得上”,但能不能“用得准”也看模型:Clawhub 里的上万个工具虽然能一键安装,但“工具调用( Function Calling )”非常考验模型的智商。如果你的硬件只能跑弱一点的模型,它可能会面对复杂的技能不知道怎么触发;配置越高,模型越聪明,技能就越丝滑!
    [/ol]
    目前本项目纯用爱发电,完全免费。做得很糙,想请社区的大佬们帮忙内测一下,看看有没有什么 Bug 。拿去给身边不想花钱又想体验 AI 的家人朋友用,或者压榨一下自己过剩的电脑算力,挺合适的。
    如果遇到安装报错或者想要的功能,欢迎在帖子里骂我,或者通过官网扫码进群反馈,我肝通宵也给大家修好!欢迎拍砖!
  • CKAJ555   
    下载后 模型也下载了 对话没反应啊
    您需要登录后才可以回帖 登录 | 立即注册

    返回顶部