主力模型用的是 Gemini 3 Flash ,整体体验挺好,速度快、工具调用也稳,基本能顶住日常 workflow 。不过 Gemini 3.1 Pro 有调用限额,所以很多任务还是得靠 Flash 。
现在的问题是:
想找一个 性能大致对标 Gemini 3 Flash ,但更有性价比的模型 做备用 / 分流。
另外我本地也有一张 4090 ,所以也在考虑顺便搞个 本地模型做 fallback ,简单任务或者离线的时候用。
在各大主流 ai 问了一圈,投票如下:
云端模型(对标 Gemini 3 Flash )
Kimi K2.5-K2 ( 4 票)
DeepSeek R1 / V3.2 ( 1 票)
本地部署( 4090 )
DeepSeek-R1-Distill-Qwen-32B ( 4bit )( 3 票)
GLM-4.7-Flash ( 30B A3B MoE )( 2 票)
目前的思路大概是:
主力:Gemini 3 Flash
云端备用:Kimi / DeepSeek
本地:跑一个 30B 左右模型兜底
不过我自己还没实际长期跑过这些组合,所以想听听大家的真实使用经验:
Kimi K2.5 和 DeepSeek V3 / R1 实际体验怎么样?
有没有 性价比能接近 Gemini 3 Flash 的模型?
4090 本地模型现在比较稳的是不是还是 32B 这一档?
欢迎拍砖,主要想听听长期在用的经验。


