搜尋
首頁科技週邊人工智慧ICML 2024 | 特徵污染:神經網路會學習不相關特徵而泛化失敗

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

  • 論文標題:Feature Contamination: Neural Networks Learn Uncorrelated Features and Fail to Generalize
  • 論文連結:https://arxiv.org/M/2406🜎 /github.com/trzhang0116/feature-contamination
  • 隨著以GPT為代表的大模型在近年來取得的巨大成功,深度神經網路+SGD+scaling的機器學習範式再次證明了其在AI領域的主導地位。為什麼基於深度神經網路的範式能夠成功?比較普遍的觀點是:神經網路具有從海量的高維度輸入資料中自動學習
  • 抽象而可泛化的特徵的能力。遺憾的是,受限於當前分析手段和數學工具的不足,目前我們對於「(深度)神經網路如何實現這樣的
特徵學習

過程」這一問題的理解仍然很不深刻。也正因如此,目前學界的相關研究大多還停留在「解釋」模型已經學到的特徵的層面,而很難透過對於其學習過程的「幹預」來得到更加數據高效、泛化性更強的模型。 當我們討論神經網路的特徵學習過程時,一個最基本的問題是:神經網路會從輸入資料中學到什麼特徵?從目標上看,神經網路的特徵學習是任務驅動下的“副產品”,其目的就是為了最小化訓練誤差。因此我們會直觀地想,神經網路應該從資料中提取「任務相關」的特徵,而剩餘的「任務無關」的特徵則相當於資料雜訊。那麼,由於神經網路自帶「非必要不學習」(更準確地說是simplicity bias)的特點,神經網路就應該傾向於不對它們進行學習。這也是目前文獻中比較普遍的觀點。 然而,在我們最近的一篇被ICML 2024接收的工作中,我們發現這樣的直觀認知實際上是

錯誤

的!具體而言,我們發現非線性神經網路在學習任務相關的特徵時還會同時有學習

任務不相關

特徵的傾向(我們稱之為"特徵污染"),並且這種傾向會導致神經網路難以泛化至具有分佈偏移(distribution shift)的場景。理論上,我們證明了特徵污染即使在簡單的兩層ReLU網絡中都會出現,並且和神經網絡中神經元激活的類別不對稱性息息相關;實驗上,我們也給出了一系列證據表明特徵污染在ResNet、Vision transformer等深層網絡中也同樣存在,並且會對其泛化性產生不利影響。 值得一提的是,我們發現的這種failure mode和當前分佈外(out-of-distribution, OOD)泛化文獻中主流的基於虛假相關性(spurious correlations)的分析是完全正交的。因此,從更大的角度看,我們的發現側面表明了神經網路自身的歸納偏置(inductive bias)對於OOD泛化的重要性,同時也表明:我們關於神經網路特徵學習和泛化的許多已有直覺可能也都需要被重新思考。 接下來,我們介紹一下文章的具體內容:

研究背景

在數據分佈變化的場景中的泛化能力(也即OOD泛化能力)是衡量機器學習系統能否在現實環境中部署的關鍵指標之一。然而,目前的神經網路在OOD泛化場景中經常會遭遇顯著的性能損失。關於OOD泛化失敗的原因,文獻中比較主流的說法是表徵中存在的虛假相關性(spurious correlations),也即模型會學習到與任務目標相關但無因果關係的特徵。於是,當這些特徵和任務目標之間的相關性因分佈偏移而改變時,依賴這些特徵進行預測的模型就無法保證原有表現。

以上這個理論解釋相當直觀且自然,也成為了指導近年來OOD演算法研究的主線,即透過設計更好的最佳化目標函數和正則項來使得模型學習到更好的、沒有虛假相關性的表徵,以期得到更強的泛化性能。近年來,已經有大量工作沿著這條主線試圖透過演算法設計來提升模型的OOD泛化性。然而,近來的工作顯示許多自帶理論保障的演算法在基於真實資料的OOD泛化任務上的效能提升卻非常有限。 為什麼會出現這樣的狀況?我們認為,目前 OOD 泛化研究的困難可能來自現有分析的

兩個限制

  • 現有研究大部分僅考慮虛假相關性導致的failure mode;
  • 目前研究大部分局限於線性模型,而沒有考慮神經網路的非線性和SGD的inductive bias,因而已有的分析結果也未必適用於我們實際使用的神經網路。

換言之,目前對OOD泛化的解釋和理論模型可能無法準確地反映真實世界的分佈偏移場景。因此我們認為,考慮神經網路和SGD的inductive bias對於理解基於深度神經網路的OOD泛化是十分必要的。

實驗

首先,我們嘗試透過實驗設計對目前基於表徵學習目標設計的OOD泛化演算法所能取得的「表現上界」進行預估。現有工作在假相關性理論的引導下,主要嘗試透過設計輔助的表徵學習目標函數來約束模型學習到可OOD泛化的表徵。為了研究優化這樣的目標是否能真正提取到期望的表徵,我們設計了一個理想化的場景:

  • 首先,在訓練過程中,我們允許模型顯式擬合一個可OOD泛化的teacher model所提取出的表徵,也即表徵蒸餾。實驗中,這個teacher model可以是一個大規模預訓練模型(如CLIP)。為了控制變量,在實際操作時我們控制待訓練模型(student model)和teacher model的模型結構完全一樣。
  • 第二步,我們在訓練集上分別基於teacher model和student model所提供的表徵訓練線性分類器(linear probing)。 、
  • 最後,我們在同分佈測試集和OOD測試集上分別對基於teacher model和student model的線性分類器進行測試,從而度量這兩個模型所提取的表徵的OOD泛化性。

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

實驗結果如上圖所示。從圖中我們有兩個主要發現:

  • 與訓練過程中沒有直接擬合teacher model表徵的標準模型(藍色)相比,基於student model的線性分類器(橙色)確實有更好的OOD泛化性;
  • 然而,基於student model的線性分類器(橙色)的OOD泛化性能仍然明顯落後於基於teacher model的線性分類器(紫色)。

於是我們自然會問:既然都已經直接擬合了teacher model的表徵,那student model和teacher model之間的泛化性gap從何而來?我們發現其實目前已有的理論解釋是很難直接解釋這個實驗現象的:

  • 首先,這個gap不能直接被虛假相關性理論解釋:既然student model和teacher model的表徵(在訓練集上)基本一樣,那麼基於這兩種表徵的線性分類器在訓練過程中受到虛假相關性特徵的影響也應該是類似的,而不應該出現這麼大的gap;
  • 另一個可能的解釋是teacher model(如CLIP)在它自己的預訓練過程中可能已經「見過」許多OOD樣本了,所以可以針對OOD樣本提取一些在訓練集上沒有的特徵。然而最近有研究顯示即使從CLIP的預訓練資料中把所有和OOD測試樣本相似的樣本都去掉CLIP仍然有很強的OOD泛化性[1]。這說明單純從這個角度來解釋teacher model和student model之間的gap也是不充分的。

簡言之,我們認為現有的分析不足以解釋我們在實驗中實際觀測到的OOD泛化能力gap。同時,既然「直接適合可OOD泛化的表徵」都不能保證得到可以OOD泛化的模型,那麼我們也就不得不在考慮表徵學習的「目標」之外同時考慮表徵學習的「過程”,也就是神經網路的特徵學習動力學所帶來的inductive bias。儘管從理論上直接分析深層神經網路的特徵學習過程是十分困難的,但我們發現,即使是兩層ReLU網路也會表現出很有趣的特徵學習傾向,也即“特徵污染”,而這一傾向又和神經網路的OOD泛化有著直接的連結。

理論

本節,我們在一個基於兩層ReLU網路的二分類問題上證明了「特徵污染」現象的存在性,並且分析了這種現象的來源。具體而言,我們假定網路的輸入是由兩種特徵線性組合而成:「核心特徵」和「背景特徵」。其中,核心特徵的分佈取決於類別標籤(可以形象理解為圖像分類問題中的待分類物體),而背景特徵的分佈和標籤無關(可以形象理解為圖像分類問題中的圖片背景等其他要素)。為了排除其他因素的干擾,我們也對這兩類特徵作以下假設:

  • 背景特徵和標籤不相關(這樣我們就排除了由虛假相關性導致的failure mode)。
  • 透過核心特徵可以對標籤實現100%準確率的預測(這樣我們就排除了由於訓練集的特徵不夠導致的failure mode)。
  • 核心特徵和背景特徵分佈在正交的子空間(這樣我們就排除不同特徵難以解耦所導致的failure mode)。

我們發現,即使在以上的條件下,神經網路仍然會在學習核心特徵的同時學習和任務完全不相關的背景特徵。由於這兩種特徵在網路權重空間的耦合,在背景特徵上發生的分佈偏移也會導致神經網路的誤差增大,進而降低網路的OOD泛化性。我們也因此把這種神經網路的特徵學習偏好稱之為「特徵污染」。以下,我們詳細介紹特徵污染現象的出現原因。整體分析思路的示意圖如下:

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

我們分析中的關鍵點在於:特徵污染實際上和神經網絡中的神經元往往對不同類別具有不對稱激活(asymmetric activation)有關。具體而言,我們可以證明在經過足夠的SGD迭代後,網絡中至少有相當一部分的神經元都會被傾向於而與一個類別的樣本保持正相關(我們稱之為該神經元的正樣本,並用ypos表示其類別),而與另一個類別的樣本保持負相關(我們稱之為該神經元的負樣本,並用yneg表示其類別)。這就會導致這些神經元的活化具有類別不對稱性,如定理4.1所示:

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

這樣的類別不對稱性是怎麼影響神經網路的特徵學習過程的呢?我們首先註意到,對於網路隱層的第k個神經元,其權重向量wk在第t次迭代後可以被拆分為:

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

上式中,Score和S bg分別表示核心特徵和背景特徵的集合,其中每個mj都對應一個核心特徵或背景特徵。從該式我們可以看出,神經元的權重可以分解為其在不同特徵上的投影(這裡我們假設不同的mj之間都是正交的單位向量)。進一步地,我們可以證明在wk的負梯度在每一個背景特徵mj,j屬於Sbg上的投影滿足:

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

對於具有類別不對稱活化的神經元根據定理4.1我們可得其梯度主要取決於該神經元的正樣本y=ypos而和負樣本y=yneg幾乎無關。這就導致正樣本中存在的核心特徵和背景特徵會同時得到正的梯度投影,而這個過程和特徵與標籤之間的相關性無關。

如定理4.2所示,我們證明了在經過足夠的SGD迭代後,上面這種梯度投影的累積將導致神經元學習到的特徵既包含核心特徵,也包含耦合的背景特徵:

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

由於核心特徵和背景特徵在神經元權重中的耦合,背景特徵的負向分佈偏移會降低神經元的激活,導致額外的OOD 誤差。如定理4.3所示,我們定量描述了特徵污染對ID 和OOD 泛化風險的影響:

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

同時,為了進一步說明特徵污染源自神經網路的非線性活化函數之間的關係,我們證明了在去除掉神經網路的非線性後,特徵污染將不再發生:

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

如下圖所示,我們透過數值實驗驗證了我們的理論結果。同時,在兩層ReLU網路+ SGD之外,我們也把我們的結論擴展到了更一般的設定上,包括其他種類的激活函數、具有自適應步長的優化器等,結果如圖3(d )所示,顯示特徵污染在更一般的設定上也普遍存在。

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

同時,我們也提供了更多的實驗證據和特徵可視化表明在我們日常使用的ResNet、Vision transformer等深度網絡中,特徵污染現象同樣會出現,並且能夠解釋我們實驗中觀測到的OOD泛化gap。對這部分內容有興趣的大家可以參考我們原論文的第5章。

總結與討論

最後,我們列舉一些未來可能比較重要/可以繼續深入做下去的研究點,也歡迎感興趣的大家和我們進一步交流:

  • 更深層的網絡:雖然我們從實驗上證明了深層網絡也存在特徵污染問題,但目前我們的理論分析只做了兩層的ReLU網絡。我們猜想特徵污染可能是比較general的概念,而神經元對於類別的活化不對稱性可能只是其發生的原因之一。透過分析更深層的網路或更複雜的網路結構(例如引入歸一化層等),我們或許可以發掘出引發特徵污染的更多原因,並給出針對性的解決思路。
  • 預訓練的作用:本文的理論分析只考慮了train from scratch的情況,但是我們實際使用的模型往往是預訓練模型。目前已有很多實驗證據顯示預訓練是有助於提升模型的OOD泛化性的,那麼這種泛化性的提升的本質是否和緩解特徵污染問題有關?預訓練又是如何做到這一點的?
  • 怎麼解決特徵污染問題:我們的工作雖然指出了特徵污染問題,但還沒有給出比較明確的解決方案。不過,我們之後的一些工作已經表明,類似的問題在fine-tuning大模型的時候也會出現,並且我們也發現一些基於梯度調整的手段確實能夠緩解這個問題,從而顯著提升fine-tuning後的模型的泛化能力。關於這部分工作的具體內容我們未來也會放出,歡迎大家持續關注。

作者簡介 | 本文作者章天任,清華大學自動化系博士研究生,本科畢業於清華大學自動化系,指導教授為陳峰教授。作者在博士期間主要圍繞表徵學習和機器學習中的泛化問題展開理論和演算法研究,已有多篇文章發表在機器學習頂會和頂刊,例如 ICML、NeurIPS、ICLR、IEEE TPAMI 等。

作者單位 | 清華大學VIPLAB

聯絡郵箱 | zhangtr22@mails.tsinghua.edu.cn

參考文獻 ., Bethge, M., and Brendel, W. Does CLIP's generalization performance mainly stem from high train-test similarity? In International Conference on Learning Representations, 2024.

以上是ICML 2024 | 特徵污染:神經網路會學習不相關特徵而泛化失敗的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
您必須在無知的面紗後面建立工作場所您必須在無知的面紗後面建立工作場所Apr 29, 2025 am 11:15 AM

在約翰·羅爾斯1971年具有開創性的著作《正義論》中,他提出了一種思想實驗,我們應該將其作為當今人工智能設計和使用決策的核心:無知的面紗。這一理念為理解公平提供了一個簡單的工具,也為領導者如何利用這種理解來公平地設計和實施人工智能提供了一個藍圖。 設想一下,您正在為一個新的社會制定規則。但有一個前提:您事先不知道自己在這個社會中將扮演什麼角色。您最終可能富有或貧窮,健康或殘疾,屬於多數派或邊緣少數群體。在這種“無知的面紗”下運作,可以防止規則制定者做出有利於自身的決策。相反,人們會更有動力製定公

決策,決策……實用應用AI的下一步決策,決策……實用應用AI的下一步Apr 29, 2025 am 11:14 AM

許多公司專門從事機器人流程自動化(RPA),提供機器人以使重複的任務自動化 - UIPATH,在任何地方自動化,藍色棱鏡等。 同時,過程採礦,編排和智能文檔處理專業

代理人來了 - 更多關於我們將在AI合作夥伴旁邊做什麼代理人來了 - 更多關於我們將在AI合作夥伴旁邊做什麼Apr 29, 2025 am 11:13 AM

AI的未來超越了簡單的單詞預測和對話模擬。 AI代理人正在出現,能夠獨立行動和任務完成。 這種轉變已經在諸如Anthropic的Claude之類的工具中很明顯。 AI代理:研究

為什麼同情在AI驅動的未來中比控制者更重要為什麼同情在AI驅動的未來中比控制者更重要Apr 29, 2025 am 11:12 AM

快速的技術進步需要對工作未來的前瞻性觀點。 當AI超越生產力並開始塑造我們的社會結構時,會發生什麼? Topher McDougal即將出版的書Gaia Wakes:

用於產品分類的AI:機器可以總稅法嗎?用於產品分類的AI:機器可以總稅法嗎?Apr 29, 2025 am 11:11 AM

產品分類通常涉及復雜的代碼,例如諸如統一系統(HS)等系統的“ HS 8471.30”,對於國際貿易和國內銷售至關重要。 這些代碼確保正確的稅收申請,影響每個INV

數據中心的需求會引發氣候技術反彈嗎?數據中心的需求會引發氣候技術反彈嗎?Apr 29, 2025 am 11:10 AM

數據中心能源消耗與氣候科技投資的未來 本文探討了人工智能驅動的數據中心能源消耗激增及其對氣候變化的影響,並分析了應對這一挑戰的創新解決方案和政策建議。 能源需求的挑戰: 大型超大規模數據中心耗電量巨大,堪比數十萬個普通北美家庭的總和,而新興的AI超大規模中心耗電量更是數十倍於此。 2024年前八個月,微軟、Meta、谷歌和亞馬遜在AI數據中心建設和運營方面的投資已達約1250億美元(摩根大通,2024)(表1)。 不斷增長的能源需求既是挑戰也是機遇。據Canary Media報導,迫在眉睫的電

AI和好萊塢的下一個黃金時代AI和好萊塢的下一個黃金時代Apr 29, 2025 am 11:09 AM

生成式AI正在徹底改變影視製作。 Luma的Ray 2模型,以及Runway的Gen-4、OpenAI的Sora、Google的Veo等眾多新模型,正在以前所未有的速度提升生成視頻的質量。這些模型能夠輕鬆製作出複雜的特效和逼真的場景,甚至連短視頻剪輯和具有攝像機感知的運動效果也已實現。雖然這些工具的操控性和一致性仍有待提高,但其進步速度令人驚嘆。 生成式視頻正在成為一種獨立的媒介形式。一些模型擅長動畫製作,另一些則擅長真人影像。值得注意的是,Adobe的Firefly和Moonvalley的Ma

Chatgpt是否會慢慢成為AI最大的Yes-Man?Chatgpt是否會慢慢成為AI最大的Yes-Man?Apr 29, 2025 am 11:08 AM

ChatGPT用户体验下降:是模型退化还是用户期望? 近期,大量ChatGPT付费用户抱怨其性能下降,引发广泛关注。 用户报告称模型响应速度变慢,答案更简短、缺乏帮助,甚至出现更多幻觉。一些用户在社交媒体上表达了不满,指出ChatGPT变得“过于讨好”,倾向于验证用户观点而非提供批判性反馈。 这不仅影响用户体验,也给企业客户带来实际损失,例如生产力下降和计算资源浪费。 性能下降的证据 许多用户报告了ChatGPT性能的显著退化,尤其是在GPT-4(即将于本月底停止服务)等旧版模型中。 这

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

SublimeText3 Linux新版

SublimeText3 Linux新版

SublimeText3 Linux最新版

SecLists

SecLists

SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

VSCode Windows 64位元 下載

VSCode Windows 64位元 下載

微軟推出的免費、功能強大的一款IDE編輯器

PhpStorm Mac 版本

PhpStorm Mac 版本

最新(2018.2.1 )專業的PHP整合開發工具