为啥这么多人都觉得苹果会很快上马可用度很高的本地 LLM?

查看 70|回复 4
作者:dilidilid   
安卓早就全面搭载 12G 内存高端产品搭载 24G 内存了,GPU 性能明显领先 Apple ,NPU 我没看到具体数据但应该差距也不大,苹果在 LLM 软件方面很明显并不是业界领先的,为啥很多人觉得苹果能在终端硬件上领先对手先全面部署成熟的本地 LLM 功能呢?
M1 的成功是因为苹果在此前若干年能耗比在 ARM 阵营都是一骑绝尘,吊打 x86 ,就算光论性能面对当时的 10 代 Intel 也完全不虚。现在 LLM 最核心的内存(显存),苹果并不下放;算法,苹果并不领先;移动端 SOC 能耗比和绝对性能也都不占优,WWDC 发布什么能一下子让苹果 AI 起来?
woctordho   
因为本地 LLM 很符合苹果的风格:注重用户隐私,忽悠用户买高端硬件,而 Google 的风格正好相反
qsnow6   
这玩意最终肯定是离线和在线并行,跟目前苹果系统的 Siri 、语音识别、OCR 引擎是一样的。
maolon   
苹果的模型倾向就跟现在主流模型不同,
第一特别小 0.27b 0.35b 1b 和 3b 可以跑哪怕 4g 的内存里,其次他有自己的推理框架和压缩算法,这点上比安卓这边是个优势。
第二他估计是要搞 large action model ,也就是说只要能识别用户意图并操作用户手机执行操作就行了,不是我们一般意义上 all purpose 的 llm 大模型。传统功能的大模型应该他会放云端,也就是跟百度和谷歌合作那个
digd   
大趋势是所有电脑和手机厂都在准备上线本地 LLM ,这是必然发生的。比如 Pixel 和三星要上的 gemini nano ,还有 vivo 也已经上线大模型手机,微软 AMD 英特尔也在推 AI PC ,早晚的事。
但就目前的情况而言,是 ipad pro 精神错乱离谱的产品参数让广大粉丝自我宽慰和抱团取暖
您需要登录后才可以回帖 登录 | 立即注册

返回顶部