6.8G 是哪个版本的 variation 啊,我下载的 FLAX 版本 7b 模型 12.5G ( https://www.kaggle.com/models/google/gemma/frameworks/flax/variations/7b-it ) LZ 是怎么配置的?我在 github 找到他们的仓库,但看起来文档并不是很细致
https://huggingface.co/chat 实际体验下来我认为只有这个模型是最接近 gpt3.5 的,而且速度也挺快,google 的这个体验不太行 mistralai/Mixtral-8x7B-Instruct-v0.1