>  기사  >  기술 주변기기  >  ICML 2024 | 기능 오염: 신경망이 관련 없는 기능을 학습하고 일반화에 실패함

ICML 2024 | 기능 오염: 신경망이 관련 없는 기능을 학습하고 일반화에 실패함

WBOY
WBOY원래의
2024-06-24 14:17:11829검색

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

  • 논문 제목: Feature Contamination: Neural Networks Learn Uncorlated Feature and Fail to Generalize
  • 논문 링크: https://arxiv.org/pdf/2406.03345
  • 코드 링크: https:/ /github.com/trzhang0116/feature-contamination

최근 GPT로 대표되는 대형 모델의 큰 성공과 함께 심층신경망+SGD+스케일링의 머신러닝 패러다임이 다시 한번 AI 현황 분야의 지배력을 입증했습니다. . 심층 신경망 기반 패러다임이 성공한 이유는 무엇입니까? 보다 일반적인 견해는 신경망이 대규모 고차원 입력 데이터로부터 추상적이고 일반화 가능한 특징을 자동으로 학습할 수 있다는 것입니다. 불행하게도 현재 분석 방법과 수학적 도구의 단점으로 인해 "(심층) 신경망이 이러한 특성 학습 프로세스를 구현하는 방법"에 대한 현재의 이해는 아직 그리 깊지 않습니다. 이 때문에 현재 학계 내 관련 연구의 대부분은 여전히 ​​모델이 학습한 특징을 '설명'하는 수준에 머물고 있으며, '개입'을 통해 보다 데이터 효율적이고 일반화 가능한 모델을 얻기 어렵다. 학습 과정. 신경망의 특징 학습 과정을 논의할 때 가장 기본적인 질문 중 하나는 신경망이 입력 데이터에서 어떤 특징을 학습할 것인가입니다. 목표 관점에서 볼 때 신경망의 특징 학습은 작업에 의해 구동되는 "부산물"이며, 그 목적은 훈련 오류를 최소화하는 것입니다. 따라서 우리는 신경망이 데이터에서 "작업 관련" 기능을 추출해야 하고 나머지 "작업 관련 없는" 기능은 데이터 노이즈와 동일하다고 직관적으로 생각할 것입니다. 그러면 신경망은 "필요하지 않으면 학습하지 않는다"(더 정확하게는 단순 편향)라는 특성을 갖고 있기 때문에 신경망은 이를 학습하지 않는 경향이 있어야 합니다. 이는 현재 문헌에서도 공통적으로 나타나는 견해이다.

그러나 최근 ICML 2024에 승인된 작업에서 우리는 이러한 직관적인 인식이 실제로

잘못

이라는 것을 발견했습니다! 구체적으로, 우리는 비선형 신경망이 작업 관련 기능을 학습할 때 작업과 관련 없는 기능(우리는 이를 "기능 오염"이라고 함)도 학습하는 경향이 있으며 이러한 경향은 신경망에 영향을 미치기 어렵다는 것을 발견했습니다. 배포 변화가 있는 시나리오로 일반화하기 위한 네트워크입니다. 이론적으로 우리는 단순한 2계층 ReLU 네트워크에서도 특징 오염이 발생하고 신경망의 뉴런 활성화 카테고리 비대칭과 밀접하게 관련되어 있음을 실험적으로 증명했습니다. 또한 특징 오염이 심층에도 존재한다는 일련의 증거를 제시했습니다. ResNet 및 Vision Transformer와 같은 네트워크는 일반화에 부정적인 영향을 미칩니다. 우리가 발견한 실패 모드는 현재 OOD(Out-of-Distribution) 일반화 문헌의 허위 상관 관계를 기반으로 한 주류 분석과 완전히 직교한다는 점은 언급할 가치가 있습니다. 따라서 더 큰 관점에서 우리의 연구 결과는 OOD 일반화에 대한 신경망 자체의 귀납적 편향의 중요성을 보여줍니다. 또한 신경망 특성 학습 및 일반화에 대한 많은 연구도 직관에 대해 재고되어야 할 수도 있음을 보여줍니다.

다음으로 기사의 구체적인 내용을 소개하자면:

연구 배경

데이터 분포가 변화하는 시나리오에서의 일반화 능력(즉, OOD 일반화 능력)은 머신러닝 시스템이 현실 환경 배포의 주요 지표 중 하나입니다. 그러나 현재 신경망은 OOD 일반화 시나리오에서 상당한 성능 손실을 겪는 경우가 많습니다. OOD 일반화가 실패하는 이유에 대해 문헌에서 더 주류적인 진술은 표현에 가짜 상관 관계가 존재한다는 것입니다. 즉, 모델은 작업 목표와 관련이 있지만 인과 관계가 없는 특징을 학습할 것입니다. 따라서 분포 변화로 인해 이러한 기능과 작업 목표 간의 상관 관계가 변경되면 예측을 위해 이러한 기능에 의존하는 모델은 원래 성능을 보장할 수 없습니다.

위의 이론적 설명은 매우 직관적이고 자연스러우며 최근 몇 년 동안 OOD 알고리즘 연구를 안내하는 주요 라인이 되었습니다. 즉, 더 나은 최적화 목적 함수와 정규 항을 설계함으로써 모델은 거짓 상관 없이 더 나은 표현을 학습할 수 있습니다. 보다 강력한 일반화 성능을 얻기 위해. 최근 몇 년 동안 알고리즘 설계를 통해 모델의 OOD 일반화를 개선하려는 노력이 이 주요 라인을 따라 많이 진행되었습니다. 그러나 최근 연구에 따르면 이론적 보장이 내장된 많은 알고리즘은 실제 데이터를 기반으로 한 OOD 일반화 작업에 대한 성능 향상이 매우 제한적입니다. 왜 이런 일이 발생하나요? 우리는 현재 OOD 일반화 연구의 어려움이 기존 분석의

두 가지 한계

에서 비롯될 수 있다고 믿습니다.

  • 기존 연구의 대부분은 허위 상관관계로 인한 실패 모드만 고려합니다.
  • 현재 연구의 대부분은 선형 모델에 국한되어 있으며 신경망의 비선형성 및 SGD의 귀납적 편향을 고려하지 않으므로 기존 분석 결과는 다음과 같습니다. 우리가 실제로 사용하는 신경망에 반드시 적합한 것은 아닙니다.

즉, OOD 일반화에 대한 현재의 설명과 이론적 모델은 실제 유통 변화 시나리오를 정확하게 반영하지 못할 수도 있습니다. 따라서 우리는 심층 신경망 기반 OOD의 일반화를 이해하기 위해서는 신경망과 SGD의 귀납적 편향을 고려하는 것이 매우 필요하다고 생각합니다.

Experiment

먼저 실험 설계를 통해 표현 학습 목표를 기반으로 설계된 현재 OOD 일반화 알고리즘이 달성할 수 있는 "성능 상한"을 추정해 봅니다. 허위 상관 이론의 지침에 따라 기존 작업은 주로 보조 표현 학습 목적 함수를 설계하여 OOD로 일반화할 수 있는 표현을 학습하도록 모델을 제한하려고 시도합니다. 이러한 목표를 최적화하면 실제로 원하는 표현을 추출할 수 있는지 연구하기 위해 이상적인 시나리오를 설계했습니다.

  • 먼저 훈련 과정에서 모델이 OOD로 일반화할 수 있는 교사 모델에 명시적으로 적합하도록 허용했습니다. 추출된 표현은 표현 증류입니다. 실험에서 이 교사 모델은 대규모 사전 학습 모델(예: CLIP)이 될 수 있습니다. 변수를 제어하기 위해 실제 동작에서는 학생 모델과 교사 모델의 모델 구조가 완전히 동일하도록 제어합니다.
  • 두 번째 단계에서는 교사 모델과 학생 모델이 각각 제공한 표현을 기반으로 훈련 세트에서 선형 분류기(선형 프로빙)를 훈련합니다. ,
  • 마지막으로 동일하게 분포된 테스트 세트와 OOD 테스트 세트에 대해 Teacher 모델과 Student 모델 기반의 선형 분류기를 테스트하여 이 두 모델에서 추출된 표현의 OOD 일반화를 측정했습니다.

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

실험 결과는 위 사진에 나와 있습니다. 그림에서 우리는 두 가지 주요 결과를 얻었습니다.

  • 훈련 과정에서 교사 모델 표현에 직접적으로 맞지 않는 표준 모델(파란색)과 비교했을 때, 학생 모델(주황색)을 기반으로 한 선형 분류기는 더 나은 OOD 일반화 가능성을 가집니다.
  • 그러나 학생 모델(주황색)을 기반으로 한 선형 분류기의 OOD 일반화 성능은 여전히 ​​교사 모델(보라색)을 기반으로 한 선형 분류기에 크게 뒤떨어져 있습니다.

그러므로 우리는 자연스럽게 질문합니다. 교사 모델의 표현을 직접 맞추었으므로 학생 모델과 교사 모델 사이의 일반화 격차는 어디에서 오는 걸까요? 우리는 이 실험 현상을 기존 이론적 설명으로는 직접 설명하기 어렵다는 것을 발견했습니다.

  • 우선, 이 격차는 허위 상관 이론으로는 직접 설명할 수 없습니다. training set)은 기본적으로 동일합니다. 그러면 이 두 표현을 기반으로 하는 선형 분류기는 훈련 과정에서 잘못된 상관 특성에 의해 유사하게 영향을 받아야 하며 그렇게 큰 차이가 없어야 합니다.
  • 또 다른 가능한 설명은 교사 모델입니다. CLIP) 자체 사전 훈련 과정에서 많은 OOD 샘플을 "확인"했을 수 있으므로 OOD 샘플에 대한 훈련 세트에서 찾을 수 없는 일부 기능을 추출할 수 있습니다. 그러나 최근 연구에 따르면 OOD 테스트 샘플과 유사한 샘플을 모두 CLIP의 사전 학습 데이터에서 제거하더라도 CLIP은 여전히 ​​강력한 OOD 일반화를 갖고 있는 것으로 나타났습니다[1]. 이는 단순히 이러한 관점에서만 교사 모델과 학생 모델의 격차를 설명하는 것만으로는 충분하지 않음을 보여줍니다.

요컨대, 우리가 실험에서 실제로 관찰한 OOD 일반화 능력의 차이를 기존 분석으로는 설명하기 부족하다고 생각합니다. 동시에 "OOD로 일반화할 수 있는 직접 피팅 표현"은 OOD로 일반화할 수 있는 모델을 보장할 수 없으므로 표현 학습의 "목표" 외에도 표현 학습의 "과정"도 고려해야 합니다. 표현 학습. "은 신경망의 특징 학습 역학으로 인해 발생하는 귀납적 편향입니다. 이론상 심층 신경망의 특징 학습 과정을 직접 분석하는 것은 매우 어렵지만, 2계층 ReLU 네트워크에서도 흥미로운 특징 학습 경향, 즉 "특성 오염"이 나타날 것이라는 사실을 발견했습니다. 또한 신경망의 OOD 일반화와 직접적으로 관련됩니다.

이론

이 섹션에서는 2계층 ReLU 네트워크 기반 이진 분류 문제에서 "특성 오염" 현상의 존재를 증명하고 이 현상의 원인을 분석합니다. 구체적으로, 네트워크에 대한 입력은 "핵심 기능"과 "배경 기능"이라는 두 가지 기능의 선형 조합으로 구성된다고 가정합니다. 그 중 핵심 특징의 분포는 카테고리 라벨에 따라 달라지며(이미지 분류 문제에서 분류할 객체로 시각화 가능), 배경 특징의 분포는 라벨과 관련이 없습니다(이미지 분류 문제에서 분류 대상으로 시각화 가능). 이미지 분류 문제의 그림 배경 및 기타 요소). 다른 요인의 간섭을 제거하기 위해 우리는 이 두 가지 유형의 기능에 대해 다음과 같은 가정을 합니다.

  • 배경 기능은 레이블과 상관 관계가 없습니다(따라서 허위 상관 관계로 인한 실패 모드를 제거합니다).
  • 핵심 기능은 100% 정확도로 라벨을 예측할 수 있습니다(이렇게 하면 훈련 세트의 기능 부족으로 인한 실패 모드를 제거할 수 있습니다).
  • 핵심 기능과 배경 기능은 직교 하위 공간에 배포됩니다(이 방법으로 분리하기 어려운 다양한 기능으로 인해 발생하는 실패 모드를 제외합니다).

위의 조건에서도 신경망은 핵심 기능을 학습하면서 작업과 전혀 관련이 없는 배경 기능을 계속 학습한다는 것을 발견했습니다. 네트워크 가중치 공간에서 이 두 가지 특징의 결합으로 인해 배경 특징에서 발생하는 분포 변화로 인해 신경망의 오류가 증가하여 네트워크의 OOD 일반화가 감소합니다. 따라서 우리는 이러한 신경망의 특징 학습 선호도를 "특성 오염"이라고 부릅니다. 아래에서는 기능 오염의 원인을 자세히 소개합니다. 전반적인 분석 아이디어의 개략도는 다음과 같습니다.

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

우리 분석의 핵심 포인트는 특성 오염이 실제로 신경망의 뉴런이 종종 비대칭 활성화(비대칭 활성화)를 갖는다는 사실과 관련이 있다는 것입니다. 다양한 카테고리에 대해. 구체적으로, 충분한 SGD 반복 후에 네트워크에 있는 뉴런의 적어도 상당 부분이 카테고리의 샘플과 양의 상관관계를 갖는 경향이 있음을 보여줄 수 있습니다(우리는 이를 이 뉴런의 양의 샘플이라고 부르며 ypos를 사용합니다) 해당 카테고리를 나타냄), 다른 카테고리의 샘플과 음의 상관관계를 유지합니다(우리는 이를 이 뉴런의 음의 샘플이라고 부르고 yneg는 해당 카테고리를 나타냄). 이는 정리 4.1에 표시된 것처럼 이러한 뉴런의 활성화에서 카테고리 비대칭으로 이어질 것입니다.

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

이러한 카테고리 비대칭이 신경망의 기능 학습 프로세스에 어떤 영향을 미치나요? 우리는 먼저 네트워크 은닉층의 k번째 뉴런에 대해 가중치 벡터 wk가 t번째 반복 후에 분할될 수 있다는 것을 알아냈습니다.

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

위 공식에서 Score과 S bg는 각각 핵심 기능 및 배경 기능 세트를 나타내며, 여기서 각 mj은 핵심 기능 또는 배경 기능에 해당합니다. 이 공식에서 우리는 뉴런의 가중치가 다양한 특징에 대한 투영으로 분해될 수 있다는 것을 알 수 있습니다(여기서는 다양한 mj이 직교 단위 벡터라고 가정합니다). 또한, 각 배경 특징 mj, j가 Sbg에 속하는 wk의 음의 기울기 투영이 다음을 만족함을 증명할 수 있습니다.

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

범주 비대칭 활성화를 갖는 뉴런의 경우, 정리에 따르면 4.1에서 우리는 그 기울기가 주로 뉴런의 양성 샘플 y=ypos에 의존하고 음성 샘플 y=yneg과는 거의 관련이 없다는 것을 알 수 있습니다. 이로 인해 양성 샘플에 존재하는 핵심 기능과 배경 기능이 동시에 긍정적인 그라데이션 투영을 얻게 되며 이 프로세스는 기능과 레이블 간의 상관 관계와 관련이 없습니다. 정리 4.2에서 볼 수 있듯이, 충분한 SGD 반복 후에 위의 경사 투영이 축적되면 뉴런이 학습한 특징에 핵심 특징과 결합된 배경 특징이 모두 포함된다는 것을 증명합니다.

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败결합으로 인해 뉴런 가중치의 핵심 특징과 배경 특징의 경우, 배경 특징의 음수 분포 이동은 뉴런의 활성화를 감소시켜 추가적인 OOD 오류를 발생시킵니다. 정리 4.3에서 볼 수 있듯이 ID 및 OOD의 일반화 위험에 대한 특성 오염의 영향을 정량적으로 설명합니다.

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败동시에, 신경망의 비선형성을 제거한 후에는 특성 오염이 더 이상 발생하지 않는다는 것을 증명합니다.

아래 그림과 같이 수치 실험을 통해 이론적 결과를 검증했습니다. 동시에, 2계층 ReLU 네트워크 + SGD 외에도 다른 유형의 활성화 함수, 적응형 단계 크기를 갖춘 최적화 프로그램 등을 포함하여 보다 일반적인 설정으로 결론을 확장했습니다. 결과는 그림 3( d) ), 이는 기능 오염이 보다 일반적인 설정에서도 널리 퍼져 있음을 나타냅니다.

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

동시에 우리가 일상적으로 사용하는 ResNet, Vision Transformer와 같은 심층 네트워크에서도 특징 오염 현상이 발생한다는 사실을 보여주기 위해 더 많은 실험적 증거와 특징 시각화를 제공하며, 우리 실험의 관찰 결과 OOD 일반화 격차에 도달했습니다. 이 부분에 관심이 있는 사람은 원본 논문의 5장을 참조할 수 있습니다.

요약 및 토론

마지막으로, 미래에 더 중요할 수 있거나 심도 있게 계속될 수 있는 몇 가지 연구 사항을 나열합니다. 우리와 더 깊이 소통하고 싶은 모든 분들을 환영합니다:

  • 더 깊은 네트워크. :심층 네트워크에도 특징 오염 문제가 있다는 것을 실험적으로 입증했지만 지금까지 이론적 분석은 2계층 ReLU 네트워크만 수행했습니다. 우리는 특징 오염이 보다 일반적인 개념일 수 있으며 범주에 대한 뉴런의 활성화 비대칭이 발생 원인 중 하나일 수 있다고 의심합니다. 더 깊은 네트워크나 더 복잡한 네트워크 구조(예: 정규화 계층 도입 등)를 분석함으로써 기능 오염의 더 많은 원인을 발견하고 타겟 솔루션을 제공할 수 있습니다.
  • 사전 훈련의 역할: 이 기사의 이론적 분석에서는 처음부터 훈련하는 경우만 고려하지만 실제로 사용하는 모델은 사전 훈련된 모델인 경우가 많습니다. 사전 훈련이 모델의 OOD 일반화를 개선하는 데 도움이 될 수 있다는 실험적 증거가 많이 있습니다. 그러면 이러한 일반화 개선의 본질이 특성 오염 문제를 완화하는 것과 관련이 있습니까? 사전 훈련은 어떻게 이루어지나요?
  • Feature 오염 문제 해결 방법: 우리 연구에서 Feature 오염 문제를 지적했지만 아직 명확한 해결책을 제시하지 못했습니다. 그러나 우리의 후속 연구 중 일부에서는 대형 모델을 미세 조정할 때 유사한 문제가 발생한다는 사실을 보여 주었으며, 기울기 조정을 기반으로 한 일부 방법이 실제로 이 문제를 완화하여 미세 조정 모델을 크게 향상시킬 수 있음을 발견했습니다. 능력. 앞으로 이 부분의 구체적인 내용도 공개할 예정이니 많은 관심 부탁드립니다.

저자 소개 | 이 기사의 저자인 Zhang Tianren은 칭화대학교 자동화학과에서 박사 과정을 밟고 있습니다. 그의 지도교수는 Chen 교수입니다. 풍. 박사 과정 동안 저자는 주로 기계 학습의 표현 학습 및 일반화 문제에 대한 이론 및 알고리즘 연구를 수행했으며 ICML, NeurIPS, ICLR, IEEE TPAMI 등과 같은 최고의 기계 학습 컨퍼런스 및 저널에 많은 기사를 게재했습니다.

저자 소속 | 칭화대학교 VIPLAB

연락처 이메일 | zhangtr22@mails.tsinghua.edu.cn

참고자료

[1] Mayilvahanan, P., Wiedemer, T., Rusak , E. , Bethge, M. 및 Brendel, W. CLIP의 일반화 성능은 주로 학습 표현에 관한 국제 회의, 2024에서 높은 훈련 테스트 유사성에서 비롯됩니까?

위 내용은 ICML 2024 | 기능 오염: 신경망이 관련 없는 기능을 학습하고 일반화에 실패함의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.