>  기사  >  기술 주변기기  >  자가 모니터링이 효과적인 이유는 무엇입니까? 243페이지 분량의 프린스턴 박사 학위 논문 "자기 지도 표현 학습 이해"는 대조 학습, 언어 모델링 및 자기 예측의 세 가지 방법을 포괄적으로 설명합니다.

자가 모니터링이 효과적인 이유는 무엇입니까? 243페이지 분량의 프린스턴 박사 학위 논문 "자기 지도 표현 학습 이해"는 대조 학습, 언어 모델링 및 자기 예측의 세 가지 방법을 포괄적으로 설명합니다.

PHPz
PHPz앞으로
2023-04-15 08:13:02934검색

사전 훈련은 이러한 단점을 극복하기 위한 대안적이고 효과적인 패러다임으로 부상했습니다. 모델은 먼저 쉽게 사용할 수 있는 데이터를 사용하여 훈련한 다음 지도 학습보다 훨씬 적은 레이블이 지정된 데이터를 사용하여 관심 있는 다운스트림 작업을 해결하는 데 사용됩니다.

사전 훈련, 즉 자기 지도 학습을 위해 레이블이 지정되지 않은 데이터를 사용하는 것은 특히 혁신적이며 텍스트, 비전, 음성 등 다양한 분야에서 성공했습니다.

이것은 흥미롭고 도전적인 질문을 제기합니다: 레이블이 지정되지 않은 데이터에 대한 사전 훈련이 겉보기에 관련이 없는 다운스트림 작업에 도움이 되어야 하는 이유는 무엇입니까?

자가 모니터링이 효과적인 이유는 무엇입니까? 243페이지 분량의 프린스턴 박사 학위 논문 자기 지도 표현 학습 이해는 대조 학습, 언어 모델링 및 자기 예측의 세 가지 방법을 포괄적으로 설명합니다.

문서 주소: https://dataspace.princeton .edu/handle/88435/dsp01t435gh21h

이 문서는 몇 가지 작업을 제시하고 자기 지도 학습이 다운스트림 작업에 유익한 이유를 연구하기 위한 이론적 프레임워크를 제안 및 설정합니다.

이 프레임워크는 대조 학습, 자동 회귀 언어 모델링 및 자기 예측 기반 방법에 적합합니다. 이 프레임워크의 핵심 아이디어는 사전 훈련이 데이터의 저차원 표현을 학습하는 데 도움이 되며, 이는 이후 선형 분류기를 사용하여 관심 있는 다운스트림 작업을 해결하는 데 도움이 되며 레이블이 적은 데이터가 필요하다는 것입니다.

자기 지도 학습 작업을 구축하기 위한 레이블이 없는 데이터 분포의 이상적인 속성을 공식화하는 것이 일반적인 주제입니다. 적절한 형식화를 통해 올바른 사전 훈련 목표를 대략적으로 최소화하면 레이블이 지정되지 않은 데이터 분포에서 암시적으로 인코딩된 다운스트림 신호를 추출할 수 있음을 알 수 있습니다.

마지막으로 선형 분류기를 사용하여 학습된 표현에서 이 신호를 디코딩하여 작업 전반에 걸쳐 "기술과 지식"을 전달하기 위한 공식화를 제공할 수 있음을 보여줍니다.

자가 모니터링이 효과적인 이유는 무엇입니까? 243페이지 분량의 프린스턴 박사 학위 논문 자기 지도 표현 학습 이해는 대조 학습, 언어 모델링 및 자기 예측의 세 가지 방법을 포괄적으로 설명합니다.

소개

기계 학습 및 인공 지능 분야는 문제에 대한 에이전트 및 데이터 기반 솔루션을 설계하는 과정에서 지난 10년 동안 엄청난 발전을 이루었습니다. ImageNet[Deng et al., 2009]과 같은 까다로운 지도 학습 벤치마크에서 초기 성공을 거둔 이후 딥 러닝의 혁신을 통해 다양한 영역의 많은 벤치마크에서 초인적인 성능을 발휘하는 모델이 탄생했습니다. 이러한 작업별 모델을 교육하는 것은 확실히 인상적이며 실질적인 가치가 매우 높습니다. 그러나 이는 종종 비용이 많이 드는 대규모 레이블 또는 주석이 달린 데이터 세트를 요구한다는 점에서 중요한 제한이 있습니다. 더욱이 지능의 관점에서 볼 때 인간처럼[Ahn and Brewer, 1993] 이전 경험으로부터 학습하고 이를 기술이나 개념으로 요약하고 이러한 기술이나 개념을 활용하여 새로운 작업을 해결할 수 있는 보다 일반적인 모델을 갖기를 희망합니다. 시연이 거의 또는 전혀 없습니다. 결국, 아기들은 명시적인 감독 없이 관찰과 상호작용을 통해 많은 것을 배웁니다. 이러한 제한은 사전 훈련을 위한 대체 패러다임에 영감을 주었습니다.

이 기사의 초점은 레이블이 지정되지 않은 대량의 데이터를 사용하여 사전 훈련하는 것입니다. 레이블이 지정되지 않은 데이터를 사용한다는 아이디어는 특히 비지도 학습과 준지도 학습을 통해 머신러닝에서 오랫동안 관심의 대상이었습니다. 딥 러닝을 사용한 현대적 적응은 흔히 자기 지도 학습(SSL)이라고 불리며 대조 학습, 언어 모델링과 같은 아이디어를 통해 기계 학습과 인공 지능의 환경을 바꾸기 시작했습니다. 자기 지도 학습의 개념은 레이블이 지정되지 않은 데이터만 사용하여 특정 작업을 구성하고 구성된 작업을 잘 수행하도록 모델을 훈련시키는 것입니다. 이러한 작업에는 일반적으로 관찰되거나 유지되는 부분에서 입력의 관찰되지 않거나 숨겨진 부분(또는 속성)을 예측하여 데이터의 구조적 속성을 인코딩하는 모델이 필요합니다[LeCun 및 Misra, 2021]. 자기 지도 학습은 관심 있는 많은 다운스트림 작업에 대한 일반성과 유용성을 보여 주었으며, 처음부터 작업을 해결하는 것보다 더 나은 샘플 효율성을 제공하여 범용 에이전트의 목표에 한 걸음 더 가까워졌습니다. 실제로 최근 GPT-3[Brown et al., 2020]과 같은 대규모 언어 모델은 대규모로 매혹적인 "창발적 행동"을 보여주어 자기 감독 사전 학습 아이디어에 대한 더 많은 관심을 불러일으켰습니다.

자기 지도 학습은 경험적으로 성공했고 계속해서 큰 가능성을 보여주고 있지만, 대략적인 직관을 넘어서 어떻게 작동하는지에 대한 좋은 이론적 이해는 여전히 부족합니다. 이러한 인상적인 성공은 왜 한 작업에 대해 훈련된 모델이 겉보기에 관련이 없어 보이는 다른 작업에 도움이 되어야 하는지, 즉 작업 a에 대한 훈련이 작업 b에 도움이 되어야 하는 이유가 선험적으로 불분명하기 때문에 흥미로운 질문을 제기합니다. SSL(및 일반적인 딥 러닝)에 대한 완전한 이론적 이해는 어렵고 어려운 일이지만, 모든 추상화 수준에서 이 현상을 이해하면 보다 원칙적인 알고리즘을 개발하는 데 도움이 될 수 있습니다. 이 기사의 연구 동기는 다음과 같습니다.

자기 지도 학습 작업(레이블이 지정되지 않은 대량의 데이터 사용)에 대한 교육이 데이터가 부족한 다운스트림 작업을 해결하는 데 도움이 되는 이유는 무엇입니까? "지식과 기술"의 이전을 공식화하는 방법은 무엇입니까?

지도 학습에 관한 대규모 문헌이 있지만 SSL 작업→다운스트림 작업의 일반화는 지도 학습의 훈련 세트→테스트 세트의 일반화와 근본적으로 다릅니다. 예를 들어 분류의 다운스트림 작업을 위한 지도 학습의 경우 알 수 없는 분포에서 샘플링된 입력-레이블 쌍의 훈련 세트에 대해 훈련된 모델은 동일한 분포에서 샘플링된 보이지 않는 테스트 세트에 대한 평가에 직접 사용될 수 있습니다. 이 기본 분포는 훈련 세트에서 테스트 세트로의 연결을 설정합니다. 그러나 SSL 작업에서 사용되는 레이블이 없는 데이터에는 다운스트림 레이블에 대한 명확한 신호가 없기 때문에 SSL 작업→다운스트림 작업의 개념적 연결이 덜 명확합니다. 이는 SSL 작업(예: 나머지 입력에서 일부 입력 예측)에 대해 사전 학습된 모델을 다운스트림 작업(예: 입력에서 클래스 레이블 예측)에 직접 사용할 수 없음을 의미합니다. 따라서 "지식과 기술"을 전달하려면 일부 레이블이 지정된 데이터를 사용하는 추가 교육 단계가 필요하며, 이상적으로는 처음부터 지도 학습에 필요한 것보다 적습니다. SSL 작업 → 다운스트림 작업 일반화에 대한 이론적 이해는 "레이블이 지정되지 않은 데이터의 본질적인 역할은 무엇입니까? 및 "다운스트림 작업에 사전 훈련된 모델을 사용하는 방법은 무엇입니까?"라는 질문을 해결해야 합니다. 이 문서는 분류의 다운스트림 작업을 대상으로 합니다. 레이블이 없는 데이터에 대한 분포 가정을 만들고 표현 학습 아이디어를 사용하여 이러한 문제를 연구합니다.

(a) (분포 가정) 레이블이 없는 데이터의 분포에는 관심 있는 다운스트림 분류 작업에 대한 정보가 암시적으로 포함되어 있습니다.

(b) (표현 학습) 적절한 SSL 작업에 대해 사전 훈련된 모델은 학습된 표현을 통해 해당 신호를 인코딩할 수 있으며, 이는 선형 분류기를 사용하여 다운스트림 분류 작업을 해결하는 데 사용될 수 있습니다.

점 (a)는 레이블이 지정되지 않은 특정 구조적 속성이 암시적으로 후속 다운스트림 작업에 대한 힌트를 제공하고 자기 지도 학습이 데이터에서 이 신호를 알아내는 데 도움이 될 수 있음을 보여줍니다. 포인트 (b)는 모델의 학습된 표현을 활용하여 사전 훈련된 모델을 사용하는 간단하고 경험적으로 효과적인 방법을 제안합니다. 이 논문은 레이블이 지정되지 않은 데이터의 분포 속성을 식별하고 수학적으로 수량화하여 대조 학습, 언어 모델링 및 자기 예측과 같은 다양한 SSL 방법에 대해 좋은 표현을 학습할 수 있음을 보여줍니다. 다음 섹션에서는 표현 학습의 개념을 더 깊이 탐구하고 자기 지도 학습이 다운스트림 작업에 도움이 되는 이유를 공식적으로 설명합니다.

자가 모니터링이 효과적인 이유는 무엇입니까? 243페이지 분량의 프린스턴 박사 학위 논문 자기 지도 표현 학습 이해는 대조 학습, 언어 모델링 및 자기 예측의 세 가지 방법을 포괄적으로 설명합니다.

위 내용은 자가 모니터링이 효과적인 이유는 무엇입니까? 243페이지 분량의 프린스턴 박사 학위 논문 "자기 지도 표현 학습 이해"는 대조 학습, 언어 모델링 및 자기 예측의 세 가지 방법을 포괄적으로 설명합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제