在 WWDC 上,苹果只字未提“人工智能(AI)”,以及“ChatGPT”等当前科技界内的一些更为流行的词汇。
苹果所做的,只是简单地提及了 7 次“机器学习(ML)”。
即使是在介绍他们准备了 7 年的 AR 眼镜 Vision Pro 时,也只是表述为“使用了先进的编码-解码神经网络”。
这与微软、谷歌等硅谷大厂在当前大模型浪潮(或者可以称为“AI Hype”)中的“高调”做法截然不同。
难道,真如一些专家、媒体所言,苹果已经在这次 AI 竞赛中掉队了?或者说他们依然在观望?实际上,并非如此。
尽管苹果没有在 WWDC 上谈论(甚至吹捧)AI 大模型,但他们介绍了一些基于 AI 的新功能,如改进的 iPhone 自动更正功能,当你按下空格键时,它可以完成一个单词或整个句子。
该功能基于使用 Transformer 语言模型的 ML 程序,使自动更正比以往任何时候都更加准确,而 Transformer 是支持 ChatGPT 的重要技术之一。
苹果表示,它甚至会学习用户如何发短信和打字,从而变得更好。
据介绍,新的“自动更正”由设备上的机器学习提供支持,多年来,苹果一直在不断改进这些模型......借助 Apple Silicon 的强大功能,iPhone 可以在用户每次轻按按键时运行此模型。
“在那些你只想输入一个 Ducking word(避讳词)的时刻,键盘也会自己学习,”苹果软件工程高级副总裁 Craig Federighi 说。
另一个例子是苹果对 AirPods Pro 的改进,即“当耳机检测到用户对话时会自动关闭降噪功能”。苹果没有把它作为一个机器学习功能,但这是一个很难解决的问题,而解决方案是要基于 AI 模型的。
此外,识别 PDF 中要填写的字段、识别你的宠物(然后将该宠物的所有照片归纳在一个文件夹中)等新功能,也同样是基于苹果在神经网络方面的研究工作。
在 WWDC 上,苹果没有谈论具体的 AI 模型,或训练数据,或未来可能改进的方向,而是简单地提到了“这些功能背后有很酷的技术做支持”。
与其竞争对手的做法(使用服务器集群、超级计算机和 TB 级数据建立更大的模型)不同,苹果希望在其设备上建立 AI 模型。
新的“自动更正”等功能正是基于这一想法,它是在 iPhone 上运行的,而像 ChatGPT 这样的模型则需要由数百个昂贵的 GPU 共同训练。
这样做的好处是,运行在设备上的 AI 绕过了很多基于云的 AI 面临的数据隐私问题。当模型可以在手机上运行时,苹果只需要收集更少的数据就可以运行它。
值得关注的是,苹果此次也公布了 M2 芯片家族的最新成员——M2 Ultra。它采用第二代 5 纳米工艺制造,拥有多达 24 个 CPU 内核、76 个 GPU 内核和 32 个内核的神经引擎,每秒可进行 31.6 万亿次运算。
苹果表示,这种能力可能会在训练“大型 Transformer 模型”时派上用场。
“M2 Ultra 可以支持高达 192GB 的统一内存,比 M1 Ultra 多 50%,这使其能够完成其他芯片无法完成的任务。例如,在一个单一系统中,它可以训练庞大的 ML 工作负载,如大型 Transformer 模型,这类模型即使是最强大的离散 GPU 也无法处理,因为其内存不足。”
M2 Ultra 的问世,让一些人工智能专家感到兴奋。
“无论是偶然还是有意为之,苹果硅统一内存架构意味着高端 Mac 现在真的是运行大型 AI 模型和进行 AI 研究的惊人机器,”Perry E. Metzger 在推特上表示,“在这个价位上,确实没有多少其他系统能提供 192GB 的 GPU 可访问内存。”
更大的内存意味着更大、能力更强的 AI 模型可以装入内存中,这可能使得许多人有机会在个人电脑上训练 AI 训练。
尽管尚未有 M2 Ultra 与A100(甚至 H100)的性能评估,但至少从目前看来,苹果已经公开进入生成式 AI 训练硬件领域。
以上是谁说苹果掉队了?WWDC上只字未提AI,却已低调入场大模型的详细内容。更多信息请关注PHP中文网其他相关文章!