zhoutiancai 发表于 2024-5-2 21:32 假的多,还有很多本地大模型接API的,一个8G显卡就能跑 7B了 你用的时候,加几个复杂逻辑就能问出来了。 本地模型和gpt4或者克劳德的差距很大的。文心都不行。