本地大模型优先版的 openclaw,您来提需求,我来改进!

查看 42|回复 4
作者:udtrokia   
https://openwalrus.xyz/
目前主要的 feature 就是可以直接跑本地大模型!(默认 Qwen3-4b)
  • 不需要花钱买 API
  • 不需要 docker
  • 不需要 ollama

    memory 层面做了内置的 graph database ,team 方面使用的 tree 状的 agent dispatch 模型,还有一堆其他乱七八糟的设计..
    本来想做到完美再发出来,但是优化实在是无底洞,还是想边交流边做
  • Eddiegaao   
    什么应用场景? openclaw 好用的原因不就是因为有一个强有力的模型才能支撑它的牛逼之处啊,用 4b 本地模型 连个翻译都够呛,还跑 agent ???
    udtrokia
    OP
      
    其实大部分的日常场景都可以处理的,机器好的话也可以跑 35B, 122B ,所有的开源大模型都可以跑,远程的也是可以支持的
    udtrokia
    OP
      
    用的最多的 kimi ,如果机器允许的话,也是可以本地跑的,其实没差的,openclaw 能做的 openwalrus 都可以做
    udtrokia
    OP
      
    不过感觉应用场景这个确实,有个具体的东西才好讲,不然太抽象了就很飘了,我目前打算的最先开发的几个用途:
    1. 用 openwalrus 运营 discord channel ,记录群里面的人的问题,因为 walrus 支持 graph memory ,所以直接把用户碰到的问题记录并且分类好
    2. openwalrus 运营 twitter ,通过 browser 帮忙自动发帖运营,绕过 twitter 的 API call ,包括可以通过 browser 调用 grok 来去优化检索
    3. 周期性的行业 research ,比如我现在做的这些 blogs ,https://openwalrus.xyz/blog?tag=research ,agent 去检索总结效率是非常大的
    我目前主要是运营需求,@Eddiegaao 老哥你有啥需求我看看我的架构能不能解决?
    您需要登录后才可以回帖 登录 | 立即注册

    返回顶部