搜尋
首頁科技週邊人工智慧史丹佛、Meta AI研究:實現AGI之路,資料剪枝比我們想像得更重要

在視覺、語言和語音在內的機器學習諸多領域中,神經標度律表明,測試誤差通常隨著訓練資料、模型大小或計算數量而下降。這種成比例提升已經推動深度學習實現了實質的表現成長。然而,這些僅透過縮放實現的提昇在計算和能源方面帶來了相當高的成本。

這種成比例的縮放是不可持續的。例如,想要誤差從 3% 下降到 2% 所需的資料、計算或能量會呈指數級增長。先前的一些研究表明,在大型 Transformer 的語言建模中,交叉熵損失從 3.4 下降到 2.8 需要 10 倍以上的訓練資料。此外,對於大型視覺 Transformer,額外的 20 億預訓練資料點 (從 10 億開始) 在 ImageNet 上僅能帶來幾個百分點的準確率成長。

所有這些結果都揭示了深度學習中資料的本質,同時表明收集巨大資料集的實踐可能是很低效的。這裡要討論的是,我們是否可以做得更好。例如,我們是否可以用一個選擇訓練樣本的良好策略來實現指數縮放呢?

在最近的一篇文章中,研究者發現,只增加一些精心選擇的訓練樣本,可以將誤差從3% 降到2% ,而無需收集10 倍以上的隨機樣本。簡而言之,「Sale is not all you need」。

史丹佛、Meta AI研究:實現AGI之路,資料剪枝比我們想像得更重要

論文連結:https://arxiv.org/pdf/2206.14486.pdf

整體來說,這項研究的貢獻在於:

1. 利用統計力學,發展了一種新的資料剪枝分析理論,在師生感知機學習環境中,樣本根據其教師邊際進行剪枝,大(小) 邊際各對應於簡單(困難) 樣本。該理論在數量上與數值實驗相符,並揭示了兩個驚人的預測:

a.最佳剪枝策略會因初始數據的數量而改變;如果初始數據豐富(稀缺) ,則應只保留困難(容易) 的樣本。

b.如果選擇一個遞增的帕累托最適剪枝分數作為初始資料集大小的函數,那麼對於剪枝後的資料集大小,指數縮放是可能的。

史丹佛、Meta AI研究:實現AGI之路,資料剪枝比我們想像得更重要

2. 研究表明,這兩個預測在更多通用設定的實踐中依舊成立。他們驗證了在 SVHN、CIFAR-10 和 ImageNet 上從頭訓練的 ResNets,以及在 CIFAR-10 上進行微調的視覺 Transformer 的與剪枝資料集大小有關的誤差指數縮放特徵。

3. 在 ImageNet 上對 10 個不同的資料剪枝度量進行了大規模基準測試研究,發現除了計算密集度最高的度量之外,大多數度量表現不佳。

4. 利用自監督學習開發了一種新的低成本無監督剪枝度量,不同於先前的度量,它不需要標籤。研究者證明了這種無監督度量與最好的監督剪枝度量相媲美,而後者需要標籤和更多的計算。這個結果揭示了一種可能性:利用預訓練基礎模型來修剪新資料集。

Is scale all you need?

研究者的感知器資料剪枝理論提出了三個驚人的預測,可以在更通用的環境下進行測試,例如在benchmark 上訓練的深度神經網路:

( 1) 相對於隨機資料剪枝,當初始資料集比較大時,只保留最難的樣本是有收益的,但當初始資料集比較小時,這樣反而有害;

(2) 隨著初始資料集大小的增加,透過保留最難樣本的固定分數f 進行的資料剪枝應該產生冪律縮放,指數等於隨機剪枝;

(3) 在初始資料集大小和所保留資料的分數上優化的測試誤差,可以透過在更大初始資料集上進行更積極的剪枝,追蹤出一個帕累托最優下包絡線,打破了測試誤差和剪枝資料集大小之間的冪律縮放函數關係。

史丹佛、Meta AI研究:實現AGI之路,資料剪枝比我們想像得更重要

研究者以不同數量的初始資料集大小和資料剪枝下保存的資料分數(圖3A 中的理論對比圖3BCD 中的深度學習實驗) ,在SVHN、CIFAR-10 和ImageNet 上訓練的ResNets 驗證了上述三個預測。在每個實驗設定中,可以看到,較大的初始資料集大小和更積極的剪枝比冪律縮放表現更好。此外,更大的初始資料集可能會看到更好的縮放(如圖 3A)。

此外,研究者發現資料剪枝可以提升遷移學習的表現。他們首先分析了在 ImageNet21K 上預先訓練的 ViT,然後在 CIFAR-10 的不同剪枝子集上進行了微調。有趣的是,預先訓練的模型允許更積極的資料剪枝;只有 10% 的 CIFAR-10 的微調可以媲美或超過所有 CIFAR-10 的微調所獲得的性能 (圖 4A)。此外,圖 4A 提供了一個在微調設定中打破冪律縮放的樣本。

史丹佛、Meta AI研究:實現AGI之路,資料剪枝比我們想像得更重要

透過在ImageNet1K 的不同剪枝子集(如圖3D 所示) 上預訓練ResNet50,研究者檢查了剪枝預訓練資料的功效,然後在CIFAR -10 上對它們進行微調。如圖 4B 所示,在最少 50% 的 ImageNet 上進行的預訓練能夠達到或超過在所有 ImageNet 上進行的預訓練所獲得的 CIFAR-10 性能。

因此,對上游任務的訓練前資料進行剪枝仍然可以在不同的下游任務上保持高效能。總體來說,這些結果顯示了剪枝在預訓練和微調階段的遷移學習中的前景。

在ImageNet 上對監督剪枝指標進行基準測試

研究者註意到,大多數的資料剪枝實驗都是在小規模資料集(即MNIST 和CIFAR 的變體)上進行的。所以,為 ImageNet 提出的少數剪枝度量很少與在較小資料集上設計的 baseline 進行比較。

因此,目前尚不清楚大多數剪枝方法如何縮放到 ImageNet 以及哪種方法最好。為研究剪枝度量的品質在理論上對性能的影響,研究者決定透過在 ImageNet 上對 8 個不同的監督剪枝度量進行系統評估來填補這一知識空白。

史丹佛、Meta AI研究:實現AGI之路,資料剪枝比我們想像得更重要

他們觀察到測量之間的顯著表現差異:圖 5BC 顯示了當每個測量下的最難樣本的一部分保留在訓練集中時的測試表現。在較小的資料集上,許多度量都取得了成功,但在選擇一個明顯較小的訓練子集(如 Imagenet 的 80%)時,只有少數度量在完整資料集訓練中仍然獲得了相當的效能。

儘管如此,大多數度量仍然優於隨機剪枝(圖 5C)。研究者發現所有剪枝度量都會放大類別的不平衡,從而導致效能下降。為了解決這個問題,作者在所有 ImageNet 實驗中使用了一個簡單的 50% 類平衡率。

透過原型度量進行自監督資料剪枝

如圖 5 ,許多資料剪枝度量不能很好地縮放到 ImageNet,其中一些確實需要大量計算。此外,所有這些度量都需要標註,這限制了它們為在大量未標註資料集訓練大規模基礎模型的資料剪枝能力。因此,我們顯然需要簡單、可縮放、自我監督的剪枝度量。

史丹佛、Meta AI研究:實現AGI之路,資料剪枝比我們想像得更重要

為了評估測量所發現的聚類是否與 ImageNet 類別一致,研究者在圖 6A 中比較了它們的重疊。當保留 70% 以上的數據時,自監督度量和監督度量的表現是相似的,這表明了自監督剪枝的前景。

更多研究細節,可參考原論文。

以上是史丹佛、Meta AI研究:實現AGI之路,資料剪枝比我們想像得更重要的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:51CTO.COM。如有侵權,請聯絡admin@php.cn刪除
讓我們跳舞:結構化運動以微調我們的人類神經網讓我們跳舞:結構化運動以微調我們的人類神經網Apr 27, 2025 am 11:09 AM

科學家已經廣泛研究了人類和更簡單的神經網絡(如秀麗隱桿線蟲中的神經網絡),以了解其功能。 但是,出現了一個關鍵問題:我們如何使自己的神經網絡與新穎的AI一起有效地工作

新的Google洩漏揭示了雙子AI的訂閱更改新的Google洩漏揭示了雙子AI的訂閱更改Apr 27, 2025 am 11:08 AM

Google的雙子座高級:新的訂閱層即將到來 目前,訪問Gemini Advanced需要$ 19.99/月Google One AI高級計劃。 但是,Android Authority報告暗示了即將發生的變化。 最新的Google P中的代碼

數據分析加速度如何求解AI的隱藏瓶頸數據分析加速度如何求解AI的隱藏瓶頸Apr 27, 2025 am 11:07 AM

儘管圍繞高級AI功能炒作,但企業AI部署中潛伏的巨大挑戰:數據處理瓶頸。首席執行官慶祝AI的進步時,工程師努力應對緩慢的查詢時間,管道超載,一個

Markitdown MCP可以將任何文檔轉換為Markdowns!Markitdown MCP可以將任何文檔轉換為Markdowns!Apr 27, 2025 am 09:47 AM

處理文檔不再只是在您的AI項目中打開文件,而是將混亂變成清晰度。諸如PDF,PowerPoints和Word之類的文檔以各種形狀和大小淹沒了我們的工作流程。檢索結構化

如何使用Google ADK進行建築代理? - 分析Vidhya如何使用Google ADK進行建築代理? - 分析VidhyaApr 27, 2025 am 09:42 AM

利用Google的代理開發套件(ADK)的力量創建具有現實世界功能的智能代理!該教程通過使用ADK來構建對話代理,並支持Gemini和GPT等各種語言模型。 w

在LLM上使用SLM進行有效解決問題-Analytics Vidhya在LLM上使用SLM進行有效解決問題-Analytics VidhyaApr 27, 2025 am 09:27 AM

摘要: 小型語言模型 (SLM) 專為效率而設計。在資源匱乏、實時性和隱私敏感的環境中,它們比大型語言模型 (LLM) 更勝一籌。 最適合專注型任務,尤其是在領域特異性、控制性和可解釋性比通用知識或創造力更重要的情況下。 SLM 並非 LLMs 的替代品,但在精度、速度和成本效益至關重要時,它們是理想之選。 技術幫助我們用更少的資源取得更多成就。它一直是推動者,而非驅動者。從蒸汽機時代到互聯網泡沫時期,技術的威力在於它幫助我們解決問題的程度。人工智能 (AI) 以及最近的生成式 AI 也不例

如何將Google Gemini模型用於計算機視覺任務? - 分析Vidhya如何將Google Gemini模型用於計算機視覺任務? - 分析VidhyaApr 27, 2025 am 09:26 AM

利用Google雙子座的力量用於計算機視覺:綜合指南 領先的AI聊天機器人Google Gemini擴展了其功能,超越了對話,以涵蓋強大的計算機視覺功能。 本指南詳細說明瞭如何利用

Gemini 2.0 Flash vs O4-Mini:Google可以比OpenAI更好嗎?Gemini 2.0 Flash vs O4-Mini:Google可以比OpenAI更好嗎?Apr 27, 2025 am 09:20 AM

2025年的AI景觀正在充滿活力,而Google的Gemini 2.0 Flash和Openai的O4-Mini的到來。 這些尖端的車型分開了幾週,具有可比的高級功能和令人印象深刻的基準分數。這個深入的比較

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Atom編輯器mac版下載

Atom編輯器mac版下載

最受歡迎的的開源編輯器

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

WebStorm Mac版

WebStorm Mac版

好用的JavaScript開發工具

DVWA

DVWA

Damn Vulnerable Web App (DVWA) 是一個PHP/MySQL的Web應用程序,非常容易受到攻擊。它的主要目標是成為安全專業人員在合法環境中測試自己的技能和工具的輔助工具,幫助Web開發人員更好地理解保護網路應用程式的過程,並幫助教師/學生在課堂環境中教授/學習Web應用程式安全性。 DVWA的目標是透過簡單直接的介面練習一些最常見的Web漏洞,難度各不相同。請注意,該軟體中