Gemini 3 Flash 用着挺香,但想找个更便宜的替代

查看 51|回复 5
作者:wsbqdyhm   
最近在折腾 OpenClaw (小龙虾)+ n8n 工作流 做一些自动化任务,现在主要是薅 Google 的 $300 API credit 。
主力模型用的是 Gemini 3 Flash ,整体体验挺好,速度快、工具调用也稳,基本能顶住日常 workflow 。不过 Gemini 3.1 Pro 有调用限额,所以很多任务还是得靠 Flash 。
现在的问题是:
想找一个 性能大致对标 Gemini 3 Flash ,但更有性价比的模型 做备用 / 分流。
另外我本地也有一张 4090 ,所以也在考虑顺便搞个 本地模型做 fallback ,简单任务或者离线的时候用。
在各大主流 ai 问了一圈,投票如下:
云端模型(对标 Gemini 3 Flash )
Kimi K2.5-K2 ( 4 票)
DeepSeek R1 / V3.2 ( 1 票)
本地部署( 4090 )
DeepSeek-R1-Distill-Qwen-32B ( 4bit )( 3 票)
GLM-4.7-Flash ( 30B A3B MoE )( 2 票)
目前的思路大概是:
主力:Gemini 3 Flash
云端备用:Kimi / DeepSeek
本地:跑一个 30B 左右模型兜底
不过我自己还没实际长期跑过这些组合,所以想听听大家的真实使用经验:
Kimi K2.5 和 DeepSeek V3 / R1 实际体验怎么样?
有没有 性价比能接近 Gemini 3 Flash 的模型?
4090 本地模型现在比较稳的是不是还是 32B 这一档?
欢迎拍砖,主要想听听长期在用的经验。
superkkk   
千问 3.5 35B A3B 或者千问 coder next ,这俩还行,但是毕竟免费开源的,24g 显存可能不够
liu731   
比它聪明的没它快,比它快的没它聪明

wsbqdyhm
OP
  
@liu731 2.5flash 体验怎么样? 之前用了一下 2.5 pro 弱智一样。
skyemin   
$300 API 现在还送吗
liu731   
@wsbqdyhm 简单任务(<=5K Token )还不错。复杂任务不行
您需要登录后才可以回帖 登录 | 立即注册

返回顶部