如题,我在网上很多地方能看到用 mac 做大模型 inference 的,甚至用 macbook air M1 16g 来运行 LLAMA 8B ,网上的教程和演示也很多 像 AMD 的核显,比如 8840h ,性能也很强,统一内存显存,不知道为什么这么做的人就很少?