花了一早研苹果的 M4,主要有两个亮点:
1.NPU 效能:比 M3 提升了 1.1 倍(M4 的 38 TOPS vs M3 的 18 TOPS)
2.低功耗:和目前最新的PC芯片比,功耗仅要其25%就可以跑一样的任务(和M2比则是减少50%)。
NPU 和功耗,这两项是 Edge 端 AI 芯片最重要的关键,而 M4 几乎是用倍增在成长,看起来是遥遥领先对手。 (如果在 iphone 功能升级也可以不要挤牙膏该有多好)
苹果这次先把 M4 搭载到 iPad、又把 iPad 屏幕加大到 13 寸也很有趣。
个人判断是,他想把一些适合在 iPad 的工作场景,尤其是视频图像类的搬过来,让 iPad 成为第二个工作站。
想一想也合理,很多人其实会通过 iPad 来拍片、剪片、剪音乐,而这些应用场景对 AI 的需求感觉会远比一般办公高。
目前一般办公能想到的应用主要是 copilot(事实上现在市面上的 AI PC 也都在炒这个),但想来想去就是帮忙优化 excel、制作 PPT、发邮件、视频生成会议记录之类的,这些对 AI 算力的需求真的有那么高吗?
但拍片、剪片就不一样了,要自动生成视频、自动修图、自动美化等等,这些图片、视频内容对 AI 需求直观来想会比前者高很多。 可能也是这样,苹果昨天才一直在强调 final cut pro(虽然感觉很少人在用? )。 不过也看得出来,苹果自己也还在探索 Edge AI 到底要长怎样。 毕竟连消费者自己都不知道需求在哪了,我们可以问自己,AI PC 能帮我们解决什么通点? 相信也是脑袋一片空白。
至于在 AI 的竞争力,很多人说他都没买 GPU 落后了、要被 AI 时代抛下了,但事实堆 GPU 主要是为了 AI 模型的 training ,而苹果的主战场一直都不是在 training,而是在 inference 推论端(也就是面向用户的场景)。
是否有个可能,苹果就直接买外部的大语言模型? 又或者他的 GPU 研发能力也很强,有没有可能自己一直在研发? 只是没有公布而已?
毕竟他的生态圈本来就是闭环,只要自己够用就好,根本不用像微软、Meta、百度一样一直无脑堆算力。
我自己对这次发布会的结论是,苹果在AI战场绝对有一席之地,除了有芯片外,还掌握了13亿的果粉。
下一个关键,我觉得会是苹果是否能定义 AI PC、AI 手机或 AI 平板是什么,真正发现并满足消费者的痛点,并教育用户使用。