搜尋
首頁科技週邊人工智慧蘋果大模型MM1殺進場:300億參數、多模態、MoE架構,超半數作者是華人

今年以来,苹果显然已经加大了对生成式人工智能(GenAI)的重视和投入。在最近的苹果股东大会上,苹果 CEO 蒂姆・库克表示,公司计划在今年在 GenAI 领域取得重大进展。此外,苹果宣布放弃了长达10年的造车项目,这导致一部分原本从事造车的团队成员开始转向 GenAI 领域。

苹果通过这些举措向外界展示了他们在加强 GenAI 方面的决心。当前,多模态领域的 GenAI 技术和产品备受瞩目,特别是 OpenAI 的 Sora。苹果自然希望在这一领域取得突破。

在一份合著的研究论文《MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training》中,苹果公司公开了他们基于多模态预训练的研究成果,推出了一个包含高达30B参数的多模态LLM系列模型。

蘋果大模型MM1殺進場:300億參數、多模態、MoE架構,超半數作者是華人

论文地址:https://arxiv.org/pdf/2403.09611.pdf

在研究中,团队对于不同架构组件和数据选择的关键性进行了深入探讨。通过对图像编码器、视觉语言连接器和各种预训练数据的仔细选择,他们总结出了一些重要的设计准则。具体而言,该研究的主要贡献包括以下几个方面。

首先,研究者在模型架构决策和预训练数据选择上进行小规模消融实验,并发现了几个有趣的趋势。建模设计方面的重要性按以下顺序排列:图像分辨率、视觉编码器损失和容量以及视觉编码器预训练数据。

其次,研究者使用三种不同类型的预训练数据:图像字幕、交错图像文本和纯文本数据。他们发现,当涉及少样本和纯文本性能时,交错和纯文本训练数据非常重要,而对于零样本性能,字幕数据最重要。这些趋势在监督微调(SFT)之后仍然存在,这表明预训练期间呈现出的性能和建模决策在微调后得以保留。

最后,研究者构建了 MM1,一个参数最高可达 300 亿(其他为 30 亿、70 亿)的多模态模型系列, 它由密集模型和混合专家(MoE)变体组成,不仅在预训练指标中实现 SOTA,在一系列已有多模态基准上监督微调后也能保持有竞争力的性能。

预训练模型 MM1 在少样本情境下的字幕和问答任务上表现优越,胜过了 Emu2、Flamingo 和 IDEFICS。监督微调后的 MM1 在 12 个多模态基准上也展现出了很强的竞争力。

得益于大规模多模态预训练,MM1 在上下文预测、多图像和思维链推理等方面具有不错的表现。同样,MM1 在指令调优后展现出了强大的少样本学习能力。 

蘋果大模型MM1殺進場:300億參數、多模態、MoE架構,超半數作者是華人

蘋果大模型MM1殺進場:300億參數、多模態、MoE架構,超半數作者是華人

方法概覽:建立MM1 的秘訣

建立高效能的MLLM(Multimodal Large Language Model,多模態大型語言模型) 是一項實踐性極高的工作。儘管高層次的架構設計和訓練過程是清晰的,但是具體的實現方法並不總是一目了然。在這項工作中,研究者詳細介紹了為建立高性能模型而進行的消融。他們探討了三個主要的設計決策方向:

  • 架構:研究者研究了不同的預訓練影像編碼器,並探索了將LLM 與這些編碼器連接起來的各種方法。
  • 資料:研究者考慮了不同類型的資料及其相對混合權重。
  • 訓練程序:研究者探討如何訓練 MLLM,包括超參數以及在何時訓練模型的哪些部分。

消融設定

#由於訓練大型MLLM 會耗費大量資源,研究者採用了簡化的消融設定。消融的基本配置如下:

  • 影像編碼器:在DFN-5B 和VeCap-300M 上使用CLIP loss 訓練的ViT-L/14 模型;影像大小為336 ×336。
  • 視覺語言連接器:C-Abstractor ,含 144 個圖像 token。
  • 預訓練資料:混合字幕影像(45%)、交錯影像文字文件(45%)和純文字(10%)資料。
  • 語言模型:1.2B 變壓器解碼器語言模型。

為了評估不同的設計決策,研究者使用了零樣本和少樣本(4 個和8 個樣本)在多種VQA 和圖像描述任務上的表現:COCO Cap tioning 、NoCaps 、TextCaps 、VQAv2 、TextVQA 、VizWiz 、GQA 和OK-VQA。

模型架構消融測驗

#研究者分析了讓 LLM 能夠處理視覺資料的組件。具體來說,他們研究了(1)如何以最佳方式預訓練視覺編碼器,以及(2)如何將視覺特徵連接到 LLM 的空間(見圖 3 左)。

蘋果大模型MM1殺進場:300億參數、多模態、MoE架構,超半數作者是華人

#
  • 影像編碼器預訓練。在這過程中,研究者主要消融了影像解析度和影像編碼器預訓練目標的重要性。需要注意的是,與其他消融試驗不同的是,研究者本次使用了 2.9B LLM(而不是 1.2B),以確保有足夠的容量來使用一些較大的影像編碼器。
  • 編碼器經驗:影像解析度的影響最大,其次是模型大小和訓練資料組成。如表 1 所示,將影像解析度從 224 提高到 336,所有架構的所有指標都提高了約 3%。將模型大小從 ViT-L 增加到 ViT-H,參數增加了一倍,但效能提升不大,通常不到 1%。最後,加入 VeCap-300M (一個合成字幕資料集)後,在少樣本場景中效能提升超過了 1%。

蘋果大模型MM1殺進場:300億參數、多模態、MoE架構,超半數作者是華人

  • 視覺語言連接器和影像解析度。此組件的目標是將視覺表徵轉化為 LLM 空間。由於影像編碼器是 ViT,因此其輸出要麼是單一的嵌入,要麼是一組與輸入影像片段相對應的網格排列嵌入。因此,需要將影像 token 的空間排列轉換為 LLM 的順序排列。同時,實際的圖像 token 表徵也要映射到詞嵌入空間。
  • VL 連接器經驗:視覺 token 數量和影像解析度最重要,而 VL 連接器的類型影響不大。如圖 4 所示,隨著視覺 token 數量或 / 和影像解析度的增加,零樣本和少樣本的辨識率都會提高。

蘋果大模型MM1殺進場:300億參數、多模態、MoE架構,超半數作者是華人

預訓練資料消融測驗

##通常,模型的訓練分為兩個階段:預訓練和指令調優。前一階段使用網路規模的數據,後一階段則使用特定任務規劃的數據。以下重點討論了本文的預訓練階段,並詳細說明研究者的資料選擇(圖 3 右)。

有兩類資料常用於訓練 MLLM:由圖像和文字對描述組成的字幕資料;以及來自網路的圖像 - 文字交錯文件。表 2 是資料集的完整清單:

蘋果大模型MM1殺進場:300億參數、多模態、MoE架構,超半數作者是華人


#

  • 資料經驗 1:交錯資料有助於提高少樣本和純文字效能,而字幕資料則能提高零樣本效能。圖 5a 展示了交錯資料和字幕資料不同組合的結果。
  • 資料經驗 2:純文字資料有助於提高少樣本和純文字效能。如圖 5b 所示,將純文字資料和字幕資料結合在一起可提高少樣本效能。
  • 資料經驗 3:謹慎混合圖像和文字資料可獲得最佳的多模態效能,並保留較強的文字效能。圖 5c 嘗試了圖像(標題和交錯)和純文字資料之間的幾種混合比例。
  • 資料經驗 4:合成資料有助於少樣本學習。如圖 5d 所示,人工合成資料確實對少數幾次學習的表現有不小的提升,絕對值分別為 2.4% 和 4%。

蘋果大模型MM1殺進場:300億參數、多模態、MoE架構,超半數作者是華人

最終模型和訓練方法

研究者收集了先前的消融結果,確定MM1 多模態預訓練的最終配方:

  • 影像編碼器:考慮到影像解析度的重要性,研究者使用了解析度為378x378px 的ViT- H 模型,並在DFN-5B 上使用CLIP 目標進行預訓練;
  • 視覺語言連接器:由於視覺token 的數量最為重要,研究者使用了一個有144 個token的VL 連接器。實際架構似乎不太重要,研究者選擇了C-Abstractor;
  • 資料:為了保持零樣本和少樣本的效能,研究者使用了以下精心組合的資料:45 % 圖像- 文字交錯文件、45% 圖像- 文字對文件和10% 純文字文件。

為了提升模型的效能,研究者將 LLM 的大小擴大到 3B、7B 和 30B 個參數。所有模型都是在序列長度為 4096、每個序列最多 16 張影像、解析度為 378×378 的情況下,以 512 個序列的批次大小進行完全解凍預訓練的。所有模型均使用 AXLearn 框架進行訓練。

他們在小規模、9M、85M、302M 和1.2B 下對學習率進行網格搜索,使用對數空間的線性回歸來推斷從較小模型到較大模型的變化(見圖6),結果是在給定(非嵌入)參數數量N 的情況下,預測出最佳峰值學習率η:

蘋果大模型MM1殺進場:300億參數、多模態、MoE架構,超半數作者是華人

透過專家混合(MoE)進行擴充。在實驗中,研究者進一步探索了透過在語言模型的 FFN 層中添加更多專家來擴展密集模型的方法。

要將密集模型轉換為 MoE,只需將密集語言解碼器替換為 MoE 語言解碼器。為了訓練 MoE,研究者採用了與密集骨幹 4 相同的訓練超參數和相同的訓練設置,包括訓練資料和訓練 token。

關於多模態預訓練結果,研究者透過適當的提示對預先訓練好的模型在上限和 VQA 任務上進行評估。表3 對零樣本和少樣本進行了評估:

蘋果大模型MM1殺進場:300億參數、多模態、MoE架構,超半數作者是華人

#監督微調結果

最後,研究者介紹了預訓練模型之上訓練的監督微調(SFT)實驗。

他們遵循 LLaVA-1.5 和 LLaVA-NeXT,從不同的資料集中收集了大約 100 萬個 SFT 樣本。鑑於直觀上,更高的影像解析度會帶來​​更好的性能,研究者還採用了擴展到高解析度的 SFT 方法。

監督微調結果如下:

表4 展示了與SOTA 比較的情況,「-Chat」表示監督微調後的MM1 模型。

首先,平均而言,MM1-3B-Chat 和 MM1-7B-Chat 優於所有列出的相同規模的模型。 MM1-3B-Chat 和 MM1-7B-Chat 在 VQAv2、TextVQA、ScienceQA、MMBench 以及最近的基準測試(MMMU 和 MathVista)中表現尤為突出。

其次,研究者探討了兩種 MoE 模型:3B-MoE(64 位專家)和 6B-MoE(32 位專家)。在幾乎所有基準測試中,蘋果的 MoE 模型都比密集模型取得了更好的效能。這顯示了 MoE 進一步擴展的巨大潛力。

第三,對於 30B 大小的模型,MM1-30B-Chat 在 TextVQA、SEED 和 MMMU 上的表現優於 Emu2-Chat37B 和 CogVLM-30B。與 LLaVA-NeXT 相比,MM1 也取得了具有競爭力的全面性能。

不過,LLaVA-NeXT 不支援多重影像推理,也不支援少樣本提示,因為每張影像都表示為2880 個發送到LLM 的token,而MM1 的token 總數只有720 個。這就限制了某些涉及多個影像的應用。

蘋果大模型MM1殺進場:300億參數、多模態、MoE架構,超半數作者是華人

圖7b 顯示,輸入影像解析度對SFT 評估指標平均表現的影響,圖7c 顯示,隨著預訓練資料的增加,模型的性能不斷提高。

影像解析度的影響。圖 7b 顯示了輸入影像解析度對 SFT 評估指標平均表現的影響。

預訓練的影響:圖 7c 顯示,隨著預訓練資料的增加,模型的效能不斷提高。

蘋果大模型MM1殺進場:300億參數、多模態、MoE架構,超半數作者是華人

更多研究細節,可參考原文。

以上是蘋果大模型MM1殺進場:300億參數、多模態、MoE架構,超半數作者是華人的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:51CTO.COM。如有侵權,請聯絡admin@php.cn刪除
閱讀AI索引2025:AI是您的朋友,敵人還是副駕駛?閱讀AI索引2025:AI是您的朋友,敵人還是副駕駛?Apr 11, 2025 pm 12:13 PM

斯坦福大學以人為本人工智能研究所發布的《2025年人工智能指數報告》對正在進行的人工智能革命進行了很好的概述。讓我們用四個簡單的概念來解讀它:認知(了解正在發生的事情)、欣賞(看到好處)、接納(面對挑戰)和責任(弄清我們的責任)。 認知:人工智能無處不在,並且發展迅速 我們需要敏銳地意識到人工智能發展和傳播的速度有多快。人工智能係統正在不斷改進,在數學和復雜思維測試中取得了優異的成績,而就在一年前,它們還在這些測試中慘敗。想像一下,人工智能解決複雜的編碼問題或研究生水平的科學問題——自2023年

開始使用Meta Llama 3.2 -Analytics Vidhya開始使用Meta Llama 3.2 -Analytics VidhyaApr 11, 2025 pm 12:04 PM

Meta的Llama 3.2:多模式和移動AI的飛躍 Meta最近公佈了Llama 3.2,這是AI的重大進步,具有強大的視覺功能和針對移動設備優化的輕量級文本模型。 以成功為基礎

AV字節:Meta' llama 3.2,Google的雙子座1.5等AV字節:Meta' llama 3.2,Google的雙子座1.5等Apr 11, 2025 pm 12:01 PM

本週的AI景觀:進步,道德考慮和監管辯論的旋風。 OpenAI,Google,Meta和Microsoft等主要參與者已經釋放了一系列更新,從開創性的新車型到LE的關鍵轉變

與機器交談的人類成本:聊天機器人真的可以在乎嗎?與機器交談的人類成本:聊天機器人真的可以在乎嗎?Apr 11, 2025 pm 12:00 PM

連接的舒適幻想:我們在與AI的關係中真的在蓬勃發展嗎? 這個問題挑戰了麻省理工學院媒體實驗室“用AI(AHA)”研討會的樂觀語氣。事件展示了加油

了解Python的Scipy圖書館了解Python的Scipy圖書館Apr 11, 2025 am 11:57 AM

介紹 想像一下,您是科學家或工程師解決複雜問題 - 微分方程,優化挑戰或傅立葉分析。 Python的易用性和圖形功能很有吸引力,但是這些任務需要強大的工具

3種運行Llama 3.2的方法-Analytics Vidhya3種運行Llama 3.2的方法-Analytics VidhyaApr 11, 2025 am 11:56 AM

Meta's Llama 3.2:多式聯運AI強力 Meta的最新多模式模型Llama 3.2代表了AI的重大進步,具有增強的語言理解力,提高的準確性和出色的文本生成能力。 它的能力t

使用dagster自動化數據質量檢查使用dagster自動化數據質量檢查Apr 11, 2025 am 11:44 AM

數據質量保證:與Dagster自動檢查和良好期望 保持高數據質量對於數據驅動的業務至關重要。 隨著數據量和源的增加,手動質量控制變得效率低下,容易出現錯誤。

大型機在人工智能時代有角色嗎?大型機在人工智能時代有角色嗎?Apr 11, 2025 am 11:42 AM

大型機:AI革命的無名英雄 雖然服務器在通用應用程序上表現出色並處理多個客戶端,但大型機是專為關鍵任務任務而建立的。 這些功能強大的系統經常在Heavil中找到

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
3 週前By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
3 週前By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您聽不到任何人,如何修復音頻
3 週前By尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解鎖Myrise中的所有內容
3 週前By尊渡假赌尊渡假赌尊渡假赌

熱工具

MinGW - Minimalist GNU for Windows

MinGW - Minimalist GNU for Windows

這個專案正在遷移到osdn.net/projects/mingw的過程中,你可以繼續在那裡關注我們。 MinGW:GNU編譯器集合(GCC)的本機Windows移植版本,可自由分發的導入函式庫和用於建置本機Windows應用程式的頭檔;包括對MSVC執行時間的擴展,以支援C99功能。 MinGW的所有軟體都可以在64位元Windows平台上運作。

PhpStorm Mac 版本

PhpStorm Mac 版本

最新(2018.2.1 )專業的PHP整合開發工具

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

SublimeText3 英文版

SublimeText3 英文版

推薦:為Win版本,支援程式碼提示!

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境