4月2日消息,根據媒體報道,在最近的一篇論文中,蘋果的研究團隊宣稱,他們提出了一個可以在設備端運行的模型ReALM,這個模型在某些方面可以超過GPT- 4。
ReALM的參數量分別為80M、250M、1B和3B,體積都非常小,適合在手機、平板電腦等裝置端運作。
ReALM研究的主要是,讓AI辨識文本中提到的各種實體(如人名、地點、組織等)之間的指涉關係的過程。
論文將實體分為三種:
螢幕實體(On-screen Entities):指的是目前顯示在使用者螢幕上的內容。
對話實體(Conversational Entities):指的是與對話相關的內容。例如,使用者說“打電話給媽媽”,那麼媽媽的聯絡人資訊就是對話實體。
後台實體(Background Entities):指的是與使用者當下操作或螢幕顯示內容可能不會直接相關的實體,例如正在播放的音樂或即將響起的鬧鈴。
論文表示,儘管大型語言模型已經證明在多種任務上具有極強的能力,但在用於解決非對話實體(如螢幕實體、後台實體)的指涉問題時,它們的潛力還沒有充分利用。
而ReALM則是一種全新的方法,透過將其性能與GPT-3.5和GPT-4進行了對比,顯示最小模型的性能與GPT-4相當,而更大的模型則顯著超過了GPT-4。
這項研究有望用來改進蘋果設備上的Siri助手,幫助Siri更好地理解和處理用戶詢問中的上下文。
以上是蘋果AI放大招!聲稱其設備端模型性能優於GPT-4的詳細內容。更多資訊請關注PHP中文網其他相關文章!