每个对硬件要求都不一样,看群里经常有人问"我这个配置能不能跑 xx 模型"。
自己踩了一圈坑之后,把经验整理成了一个小工具:
→ 自动检测你的 GPU ( WebGPU/WebGL ,不需要装任何东西)
→ 根据你的硬件推荐最合适的模型 + 量化方案
→ 直接给 Ollama / llama.cpp / Transformers 的运行命令
→ Mac 、Windows 、Linux 、手机都覆盖了
地址: https://www.gemmamatch.com
纯前端,没有后端,不收集任何数据。
目前数据主要是从 r/LocalLLaMA 和社区 benchmark 整理的,
肯定有不准的地方,特别是:
[ol]
[/ol]
如果各位跑过 Gemma 4 ,欢迎反馈下实际体验,
我可以把数据补进去,让推荐更准一些。

