换个模型吧,比如 gemma-4-26B-A4B-it-uncensored ,我在本地用稍小的 gemma-4-e4b-uncensored-hauhaucs-aggressive 感觉都超级强,比同样解锁的 qwen3.5 模型尺度大多了。上 huggingface 看了下,26b 模型也有了,我也下载试试。
宣传错地方了,V 站大部分人都有 32G+的统一内存 Mac ,也有访问 HuggingFace 的网络环境,所以就一个 ollama pull 的功夫,没有必要用在线服务。况且又不开源,万一拿去蒸馏呢。
@nc @Rokaki 我明白你们的意思,如果要最好的隐私,本地离线大模型是最好的选择。 不过普通用户(包括不少程序员群体)或因为技术,或因为资金承担不了高质量的大模型时,这个产品给个另外一个选择。 另外做产品都面临着用户信任的问题 (比如我是绝对不敢用百度的东西)。 我觉得我能做的就是尽量把内部的处理流程暴露出来,提供更多可验证/可跟踪的方案,提供要求严格的用户协议,如果违反了要付出巨大的成本。 同时这也是个需要时间验证的过程,比如我们都觉得苹果的隐私保护做的比一众国内厂商好。 共勉。