在 WWDC 上,蘋果隻字未提「人工智慧(AI)」,以及「ChatGPT」等目前科技界內的一些較為流行的詞彙。
蘋果所做的,只是簡單地提及了 7 次「機器學習(ML)」。
即使是在介紹他們準備了 7 年的 AR 眼鏡 Vision Pro 時,也只是表述為「使用了先進的編碼-解碼神經網路」。
這與微軟、Google等矽谷大廠在當前大模型浪潮(或可稱為「AI Hype」)中的「高調」做法截然不同。
難道,真如一些專家、媒體所言,蘋果已經在這次 AI 競賽中掉隊了? 或者說他們依然在觀望?實際上,並非如此。
儘管蘋果沒有在WWDC 上談論(甚至吹捧)AI 大模型,但他們介紹了一些基於AI 的新功能,如改進的iPhone 自動更正功能,當你按下空格鍵時,它可以完成一個單字或整個句子。
此功能基於使用 Transformer 語言模型的 ML 程序,使自動修正比以往任何時候都更加準確,而 Transformer 是支援 ChatGPT 的重要技術之一。
蘋果表示,它甚至會學習用戶如何發送簡訊和打字,變得更好。
據介紹,新的「自動更正」由設備上的機器學習提供支持,多年來,蘋果一直在不斷改進這些模型......借助Apple Silicon 的強大功能, iPhone 可以在使用者每次輕按按鍵時執行此模型。
「在那些你只想輸入一個 Ducking word(避諱詞)的時刻,鍵盤也會自己學習,」蘋果軟體工程高級副總裁 Craig Federighi 說。
另一個例子是蘋果對 AirPods Pro 的改進,即「當耳機偵測到使用者對話時會自動關閉降噪功能」。蘋果沒有把它當作一個機器學習功能,但這是一個很難解決的問題,而解決方案是要基於 AI 模型的。
此外,識別PDF 中要填寫的欄位、識別你的寵物(然後將該寵物的所有照片歸納在一個資料夾中)等新功能,也同樣是基於蘋果在神經網絡方面的研究工作。
在 WWDC 上,蘋果沒有談論具體的 AI 模型,或訓練數據,或未來可能改進的方向,而是簡單地提到了「這些功能背後有很酷的技術做支持」。
與其競爭對手的做法(使用伺服器叢集、超級電腦和 TB 級資料建立更大的模型)不同,蘋果希望在其設備上建立 AI 模型。
新的「自動修正」等功能正是基於這個想法,它是在 iPhone 上運行的,而像 ChatGPT 這樣的模型則需要由數百個昂貴的 GPU 共同訓練。
這樣做的好處是,運行在裝置上的 AI 繞過了許多基於雲端的 AI 面臨的資料隱私問題。當模型可以在手機上運行時,蘋果只需要收集更少的數據就可以運行它。
值得關注的是,蘋果此次也公佈了 M2 晶片家族的最新成員——M2 Ultra。它採用第二代 5 奈米製程製造,擁有多達 24 個 CPU 核心、76 個 GPU 核心和 32 個核心的神經引擎,每秒可進行 31.6 兆次運算。
蘋果表示,這種能力可能會在訓練「大型 Transformer 模型」時派上用場。
「M2 Ultra 可以支援高達192GB 的統一內存,比M1 Ultra 多50%,這使其能夠完成其他晶片無法完成的任務。例如,在一個單一系統中,它可以訓練龐大的ML 工作負載,如大型Transformer 模型,這類模型即使是最強大的離散GPU 也無法處理,因為其記憶體不足。」
M2 Ultra 的問世,讓一些人工智慧專家感到興奮。
「無論是偶然還是有意為之,蘋果矽統一記憶體架構意味著高階Mac 現在真的是運行大型AI 模型和進行AI 研究的驚人機器,」Perry E. Metzger 在推特上表示,「在在這個價位上,確實沒有多少其他系統能提供192GB 的GPU 可存取記憶體。」
更大的記憶體意味著更大、能力更強的 AI 模型可以裝入記憶體中,這可能使得許多人有機會在個人電腦上訓練 AI 訓練。
儘管尚未有 M2 Ultra 與A100(甚至 H100)的效能評估,但至少從目前看來,蘋果已經公開進入生成式 AI 訓練硬體領域。
以上是誰說蘋果掉隊了? WWDC上隻字未提AI,卻已低調入場大模型的詳細內容。更多資訊請關注PHP中文網其他相關文章!