- 論文標題:Feature Contamination: Neural Networks Learn Uncorrelated Features and Fail to Generalize
- 論文連結:https://arxiv.org/M/2406🜎 /github.com/trzhang0116/feature-contamination
- 隨著以GPT為代表的大模型在近年來取得的巨大成功,深度神經網路+SGD+scaling的機器學習範式再次證明了其在AI領域的主導地位。為什麼基於深度神經網路的範式能夠成功?比較普遍的觀點是:神經網路具有從海量的高維度輸入資料中自動學習 抽象而可泛化的特徵的能力。遺憾的是,受限於當前分析手段和數學工具的不足,目前我們對於「(深度)神經網路如何實現這樣的
過程」這一問題的理解仍然很不深刻。也正因如此,目前學界的相關研究大多還停留在「解釋」模型已經學到的特徵的層面,而很難透過對於其學習過程的「幹預」來得到更加數據高效、泛化性更強的模型。 當我們討論神經網路的特徵學習過程時,一個最基本的問題是:神經網路會從輸入資料中學到什麼特徵?從目標上看,神經網路的特徵學習是任務驅動下的“副產品”,其目的就是為了最小化訓練誤差。因此我們會直觀地想,神經網路應該從資料中提取「任務相關」的特徵,而剩餘的「任務無關」的特徵則相當於資料雜訊。那麼,由於神經網路自帶「非必要不學習」(更準確地說是simplicity bias)的特點,神經網路就應該傾向於不對它們進行學習。這也是目前文獻中比較普遍的觀點。 然而,在我們最近的一篇被ICML 2024接收的工作中,我們發現這樣的直觀認知實際上是
錯誤的!具體而言,我們發現非線性神經網路在學習任務相關的特徵時還會同時有學習
任務不相關特徵的傾向(我們稱之為"特徵污染"),並且這種傾向會導致神經網路難以泛化至具有分佈偏移(distribution shift)的場景。理論上,我們證明了特徵污染即使在簡單的兩層ReLU網絡中都會出現,並且和神經網絡中神經元激活的類別不對稱性息息相關;實驗上,我們也給出了一系列證據表明特徵污染在ResNet、Vision transformer等深層網絡中也同樣存在,並且會對其泛化性產生不利影響。 值得一提的是,我們發現的這種failure mode和當前分佈外(out-of-distribution, OOD)泛化文獻中主流的基於虛假相關性(spurious correlations)的分析是完全正交的。因此,從更大的角度看,我們的發現側面表明了神經網路自身的歸納偏置(inductive bias)對於OOD泛化的重要性,同時也表明:我們關於神經網路特徵學習和泛化的許多已有直覺可能也都需要被重新思考。 接下來,我們介紹一下文章的具體內容:
研究背景在數據分佈變化的場景中的泛化能力(也即OOD泛化能力)是衡量機器學習系統能否在現實環境中部署的關鍵指標之一。然而,目前的神經網路在OOD泛化場景中經常會遭遇顯著的性能損失。關於OOD泛化失敗的原因,文獻中比較主流的說法是表徵中存在的虛假相關性(spurious correlations),也即模型會學習到與任務目標相關但無因果關係的特徵。於是,當這些特徵和任務目標之間的相關性因分佈偏移而改變時,依賴這些特徵進行預測的模型就無法保證原有表現。
以上這個理論解釋相當直觀且自然,也成為了指導近年來OOD演算法研究的主線,即透過設計更好的最佳化目標函數和正則項來使得模型學習到更好的、沒有虛假相關性的表徵,以期得到更強的泛化性能。近年來,已經有大量工作沿著這條主線試圖透過演算法設計來提升模型的OOD泛化性。然而,近來的工作顯示許多自帶理論保障的演算法在基於真實資料的OOD泛化任務上的效能提升卻非常有限。 為什麼會出現這樣的狀況?我們認為,目前 OOD 泛化研究的困難可能來自現有分析的
兩個限制:
- 現有研究大部分僅考慮虛假相關性導致的failure mode;
- 目前研究大部分局限於線性模型,而沒有考慮神經網路的非線性和SGD的inductive bias,因而已有的分析結果也未必適用於我們實際使用的神經網路。
換言之,目前對OOD泛化的解釋和理論模型可能無法準確地反映真實世界的分佈偏移場景。因此我們認為,考慮神經網路和SGD的inductive bias對於理解基於深度神經網路的OOD泛化是十分必要的。
實驗
首先,我們嘗試透過實驗設計對目前基於表徵學習目標設計的OOD泛化演算法所能取得的「表現上界」進行預估。現有工作在假相關性理論的引導下,主要嘗試透過設計輔助的表徵學習目標函數來約束模型學習到可OOD泛化的表徵。為了研究優化這樣的目標是否能真正提取到期望的表徵,我們設計了一個理想化的場景:
- 首先,在訓練過程中,我們允許模型顯式擬合一個可OOD泛化的teacher model所提取出的表徵,也即表徵蒸餾。實驗中,這個teacher model可以是一個大規模預訓練模型(如CLIP)。為了控制變量,在實際操作時我們控制待訓練模型(student model)和teacher model的模型結構完全一樣。
- 第二步,我們在訓練集上分別基於teacher model和student model所提供的表徵訓練線性分類器(linear probing)。 、
- 最後,我們在同分佈測試集和OOD測試集上分別對基於teacher model和student model的線性分類器進行測試,從而度量這兩個模型所提取的表徵的OOD泛化性。
實驗結果如上圖所示。從圖中我們有兩個主要發現:
- 與訓練過程中沒有直接擬合teacher model表徵的標準模型(藍色)相比,基於student model的線性分類器(橙色)確實有更好的OOD泛化性;
- 然而,基於student model的線性分類器(橙色)的OOD泛化性能仍然明顯落後於基於teacher model的線性分類器(紫色)。
於是我們自然會問:既然都已經直接擬合了teacher model的表徵,那student model和teacher model之間的泛化性gap從何而來?我們發現其實目前已有的理論解釋是很難直接解釋這個實驗現象的:
- 首先,這個gap不能直接被虛假相關性理論解釋:既然student model和teacher model的表徵(在訓練集上)基本一樣,那麼基於這兩種表徵的線性分類器在訓練過程中受到虛假相關性特徵的影響也應該是類似的,而不應該出現這麼大的gap;
- 另一個可能的解釋是teacher model(如CLIP)在它自己的預訓練過程中可能已經「見過」許多OOD樣本了,所以可以針對OOD樣本提取一些在訓練集上沒有的特徵。然而最近有研究顯示即使從CLIP的預訓練資料中把所有和OOD測試樣本相似的樣本都去掉CLIP仍然有很強的OOD泛化性[1]。這說明單純從這個角度來解釋teacher model和student model之間的gap也是不充分的。
簡言之,我們認為現有的分析不足以解釋我們在實驗中實際觀測到的OOD泛化能力gap。同時,既然「直接適合可OOD泛化的表徵」都不能保證得到可以OOD泛化的模型,那麼我們也就不得不在考慮表徵學習的「目標」之外同時考慮表徵學習的「過程”,也就是神經網路的特徵學習動力學所帶來的inductive bias。儘管從理論上直接分析深層神經網路的特徵學習過程是十分困難的,但我們發現,即使是兩層ReLU網路也會表現出很有趣的特徵學習傾向,也即“特徵污染”,而這一傾向又和神經網路的OOD泛化有著直接的連結。
理論
本節,我們在一個基於兩層ReLU網路的二分類問題上證明了「特徵污染」現象的存在性,並且分析了這種現象的來源。具體而言,我們假定網路的輸入是由兩種特徵線性組合而成:「核心特徵」和「背景特徵」。其中,核心特徵的分佈取決於類別標籤(可以形象理解為圖像分類問題中的待分類物體),而背景特徵的分佈和標籤無關(可以形象理解為圖像分類問題中的圖片背景等其他要素)。為了排除其他因素的干擾,我們也對這兩類特徵作以下假設:
- 背景特徵和標籤不相關(這樣我們就排除了由虛假相關性導致的failure mode)。
- 透過核心特徵可以對標籤實現100%準確率的預測(這樣我們就排除了由於訓練集的特徵不夠導致的failure mode)。
- 核心特徵和背景特徵分佈在正交的子空間(這樣我們就排除不同特徵難以解耦所導致的failure mode)。
我們發現,即使在以上的條件下,神經網路仍然會在學習核心特徵的同時學習和任務完全不相關的背景特徵。由於這兩種特徵在網路權重空間的耦合,在背景特徵上發生的分佈偏移也會導致神經網路的誤差增大,進而降低網路的OOD泛化性。我們也因此把這種神經網路的特徵學習偏好稱之為「特徵污染」。以下,我們詳細介紹特徵污染現象的出現原因。整體分析思路的示意圖如下:
我們分析中的關鍵點在於:特徵污染實際上和神經網絡中的神經元往往對不同類別具有不對稱激活(asymmetric activation)有關。具體而言,我們可以證明在經過足夠的SGD迭代後,網絡中至少有相當一部分的神經元都會被傾向於而與一個類別的樣本保持正相關(我們稱之為該神經元的正樣本,並用ypos表示其類別),而與另一個類別的樣本保持負相關(我們稱之為該神經元的負樣本,並用yneg表示其類別)。這就會導致這些神經元的活化具有類別不對稱性,如定理4.1所示:
這樣的類別不對稱性是怎麼影響神經網路的特徵學習過程的呢?我們首先註意到,對於網路隱層的第k個神經元,其權重向量wk在第t次迭代後可以被拆分為:
上式中,Score和S bg分別表示核心特徵和背景特徵的集合,其中每個mj都對應一個核心特徵或背景特徵。從該式我們可以看出,神經元的權重可以分解為其在不同特徵上的投影(這裡我們假設不同的mj之間都是正交的單位向量)。進一步地,我們可以證明在wk的負梯度在每一個背景特徵mj,j屬於Sbg上的投影滿足:
對於具有類別不對稱活化的神經元根據定理4.1我們可得其梯度主要取決於該神經元的正樣本y=ypos而和負樣本y=yneg幾乎無關。這就導致正樣本中存在的核心特徵和背景特徵會同時得到正的梯度投影,而這個過程和特徵與標籤之間的相關性無關。
如定理4.2所示,我們證明了在經過足夠的SGD迭代後,上面這種梯度投影的累積將導致神經元學習到的特徵既包含核心特徵,也包含耦合的背景特徵:
由於核心特徵和背景特徵在神經元權重中的耦合,背景特徵的負向分佈偏移會降低神經元的激活,導致額外的OOD 誤差。如定理4.3所示,我們定量描述了特徵污染對ID 和OOD 泛化風險的影響:
同時,為了進一步說明特徵污染源自神經網路的非線性活化函數之間的關係,我們證明了在去除掉神經網路的非線性後,特徵污染將不再發生:
如下圖所示,我們透過數值實驗驗證了我們的理論結果。同時,在兩層ReLU網路+ SGD之外,我們也把我們的結論擴展到了更一般的設定上,包括其他種類的激活函數、具有自適應步長的優化器等,結果如圖3(d )所示,顯示特徵污染在更一般的設定上也普遍存在。
同時,我們也提供了更多的實驗證據和特徵可視化表明在我們日常使用的ResNet、Vision transformer等深度網絡中,特徵污染現象同樣會出現,並且能夠解釋我們實驗中觀測到的OOD泛化gap。對這部分內容有興趣的大家可以參考我們原論文的第5章。
總結與討論
最後,我們列舉一些未來可能比較重要/可以繼續深入做下去的研究點,也歡迎感興趣的大家和我們進一步交流:
- 更深層的網絡:雖然我們從實驗上證明了深層網絡也存在特徵污染問題,但目前我們的理論分析只做了兩層的ReLU網絡。我們猜想特徵污染可能是比較general的概念,而神經元對於類別的活化不對稱性可能只是其發生的原因之一。透過分析更深層的網路或更複雜的網路結構(例如引入歸一化層等),我們或許可以發掘出引發特徵污染的更多原因,並給出針對性的解決思路。
- 預訓練的作用:本文的理論分析只考慮了train from scratch的情況,但是我們實際使用的模型往往是預訓練模型。目前已有很多實驗證據顯示預訓練是有助於提升模型的OOD泛化性的,那麼這種泛化性的提升的本質是否和緩解特徵污染問題有關?預訓練又是如何做到這一點的?
- 怎麼解決特徵污染問題:我們的工作雖然指出了特徵污染問題,但還沒有給出比較明確的解決方案。不過,我們之後的一些工作已經表明,類似的問題在fine-tuning大模型的時候也會出現,並且我們也發現一些基於梯度調整的手段確實能夠緩解這個問題,從而顯著提升fine-tuning後的模型的泛化能力。關於這部分工作的具體內容我們未來也會放出,歡迎大家持續關注。
作者簡介 | 本文作者章天任,清華大學自動化系博士研究生,本科畢業於清華大學自動化系,指導教授為陳峰教授。作者在博士期間主要圍繞表徵學習和機器學習中的泛化問題展開理論和演算法研究,已有多篇文章發表在機器學習頂會和頂刊,例如 ICML、NeurIPS、ICLR、IEEE TPAMI 等。
作者單位 | 清華大學VIPLAB
聯絡郵箱 | zhangtr22@mails.tsinghua.edu.cn
參考文獻 ., Bethge, M., and Brendel, W. Does CLIP's generalization performance mainly stem from high train-test similarity? In International Conference on Learning Representations, 2024.
以上是ICML 2024 | 特徵污染:神經網路會學習不相關特徵而泛化失敗的詳細內容。更多資訊請關注PHP中文網其他相關文章!

MakridakisM-Competitions系列(分别称为M4和M5)分别在2018年和2020年举办(M6也在今年举办了)。对于那些不了解的人来说,m系列得比赛可以被认为是时间序列生态系统的一种现有状态的总结,为当前得预测的理论和实践提供了经验和客观的证据。2018年M4的结果表明,纯粹的“ML”方法在很大程度上胜过传统的统计方法,这在当时是出乎意料的。在两年后的M5[1]中,最的高分是仅具有“ML”方法。并且所有前50名基本上都是基于ML的(大部分是树型模型)。这场比赛看到了LightG

在一项最新的研究中,来自UW和Meta的研究者提出了一种新的解码算法,将AlphaGo采用的蒙特卡洛树搜索算法(Monte-CarloTreeSearch,MCTS)应用到经过近端策略优化(ProximalPolicyOptimization,PPO)训练的RLHF语言模型上,大幅提高了模型生成文本的质量。PPO-MCTS算法通过探索与评估若干条候选序列,搜索到更优的解码策略。通过PPO-MCTS生成的文本能更好满足任务要求。论文链接:https://arxiv.org/pdf/2309.150

编辑|X传统意义上,发现所需特性的分子过程一直是由手动实验、化学家的直觉以及对机制和第一原理的理解推动的。随着化学家越来越多地使用自动化设备和预测合成算法,自主研究设备越来越接近实现。近日,来自MIT的研究人员开发了由集成机器学习工具驱动的闭环自主分子发现平台,以加速具有所需特性的分子的设计。无需手动实验即可探索化学空间并利用已知的化学结构。在两个案例研究中,该平台尝试了3000多个反应,其中1000多个产生了预测的反应产物,提出、合成并表征了303种未报道的染料样分子。该研究以《Autonom

作者|陈旭鹏编辑|ScienceAI由于神经系统的缺陷导致的失语会导致严重的生活障碍,它可能会限制人们的职业和社交生活。近年来,深度学习和脑机接口(BCI)技术的飞速发展为开发能够帮助失语者沟通的神经语音假肢提供了可行性。然而,神经信号的语音解码面临挑战。近日,约旦大学VideoLab和FlinkerLab的研究者开发了一个新型的可微分语音合成器,可以利用一个轻型的卷积神经网络将语音编码为一系列可解释的语音参数(例如音高、响度、共振峰频率等),并通过可微分神经网络将这些参数合成为语音。这个合成器

昨天,Meta开源专攻代码生成的基础模型CodeLlama,可免费用于研究以及商用目的。CodeLlama系列模型有三个参数版本,参数量分别为7B、13B和34B。并且支持多种编程语言,包括Python、C++、Java、PHP、Typescript(Javascript)、C#和Bash。Meta提供的CodeLlama版本包括:代码Llama,基础代码模型;代码羊-Python,Python微调版本;代码Llama-Instruct,自然语言指令微调版就其效果来说,CodeLlama的不同版

编辑|紫罗可合成分子的化学空间是非常广阔的。有效地探索这个领域需要依赖计算筛选技术,比如深度学习,以便快速地发现各种有趣的化合物。将分子结构转换为数字表示形式,并开发相应算法生成新的分子结构是进行化学发现的关键。最近,英国格拉斯哥大学的研究团队提出了一种基于电子密度训练的机器学习模型,用于生成主客体binders。这种模型能够以简化分子线性输入规范(SMILES)格式读取数据,准确率高达98%,从而实现对分子在二维空间的全面描述。通过变分自编码器生成主客体系统的电子密度和静电势的三维表示,然后通

一个普通人用一台手机就能制作电影特效的时代已经来了。最近,一个名叫Simulon的3D技术公司发布了一系列特效视频,视频中的3D机器人与环境无缝融合,而且光影效果非常自然。呈现这些效果的APP也叫Simulon,它能让使用者通过手机摄像头的实时拍摄,直接渲染出CGI(计算机生成图像)特效,就跟打开美颜相机拍摄一样。在具体操作中,你要先上传一个3D模型(比如图中的机器人)。Simulon会将这个模型放置到你拍摄的现实世界中,并使用准确的照明、阴影和反射效果来渲染它们。整个过程不需要相机解算、HDR

人类和四足机器人之间简单有效的交互是创造能干的智能助理机器人的途径,其昭示着这样一个未来:技术以超乎我们想象的方式改善我们的生活。对于这样的人类-机器人交互系统,关键是让四足机器人有能力响应自然语言指令。近来大型语言模型(LLM)发展迅速,已经展现出了执行高层规划的潜力。然而,对LLM来说,理解低层指令依然很难,比如关节角度目标或电机扭矩,尤其是对于本身就不稳定、必需高频控制信号的足式机器人。因此,大多数现有工作都会假设已为LLM提供了决定机器人行为的高层API,而这就从根本上限制了系统的表现能


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

WebStorm Mac版
好用的JavaScript開發工具

SublimeText3 Linux新版
SublimeText3 Linux最新版

ZendStudio 13.5.1 Mac
強大的PHP整合開發環境

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

SublimeText3 英文版
推薦:為Win版本,支援程式碼提示!