>  기사  >  기술 주변기기  >  내 말 들어봐, Transformer는 서포트 벡터 머신이야

내 말 들어봐, Transformer는 서포트 벡터 머신이야

WBOY
WBOY앞으로
2023-09-17 18:09:03707검색

Transformer는 학계에서 논의를 촉발한 새로운 이론인 지원 벡터 머신(SVM)입니다.

지난 주말 펜실베이니아 대학과 캘리포니아 리버사이드 대학의 논문에서는 대형 모델을 기반으로 한 Transformer 구조의 원리, Attention 레이어의 최적화된 기하학, 최적의 입력 토큰 분리에 대한 연구를 시도했습니다. 최적이 아닌 토큰은 하드 바운드 SVM 문제 사이에 공식적인 동등성이 설정됩니다.

저자는 hackernews에서 이 이론이 각 입력 시퀀스에서 "좋은" 토큰과 "나쁜" 토큰을 분리하는 SVM 문제를 해결한다고 밝혔습니다. 뛰어난 성능을 갖춘 토큰 선택기로서 이 SVM은 입력에 0-1 레이블을 할당하는 기존 SVM과 본질적으로 다릅니다.

이 이론은 또한 소프트맥스를 통해 주의가 희소성을 유도하는 방법을 설명합니다. SVM 결정 경계의 잘못된 쪽에 있는 "나쁜" 토큰은 소프트맥스 기능에 의해 억제되는 반면 "좋은" 토큰은 그렇지 않은 토큰입니다. 제로 소프트맥스 확률 토큰. 이 SVM이 소프트맥스의 지수 속성에서 파생된다는 점도 언급할 가치가 있습니다.

논문이 arXiv에 올라간 후, 사람들은 다음과 같이 의견을 밝혔습니다. AI 연구의 방향이 정말 나선형으로 돌아가고 있는 걸까요?

내 말 들어봐, Transformer는 서포트 벡터 머신이야

한 바퀴를 돌고 난 후에도 지원 벡터 머신은 여전히 ​​구식이 아닙니다.

"Attention is All You Need"라는 고전 논문이 출판된 이후 Transformer 아키텍처는 자연어 처리(NLP) 분야에 혁명적인 발전을 가져왔습니다. Transformer의 주의 계층은 일련의 입력 토큰 X를 받아들이고 내 말 들어봐, Transformer는 서포트 벡터 머신이야를 계산하여 토큰 간의 상관 관계를 평가합니다. 여기서 (K, Q)는 훈련 가능한 키 쿼리 매개변수이며 궁극적으로 원격 종속성을 효과적으로 캡처합니다.

이제 "Transformers as Support Vector Machines"라는 새 논문에서는 토큰 쌍의 선형 외적을 사용하여 self-attention의 최적화 기하학과 하드 마진 SVM 문제 사이의 형식적 동등성을 확립합니다. 제약 조건은 최적의 입력 토큰을 분리합니다. 최적이 아닌 토큰에서.

내 말 들어봐, Transformer는 서포트 벡터 머신이야

문서 링크: https://arxiv.org/pdf/2308.16898.pdf

이 공식 동등성은 Davoud Ataee Tarzanagh et의 "Max-Margin Token Selection in Attention Mechanism" 논문을 기반으로 합니다. al. "Vanishing 정규화를 기반으로 결합된 매개변수의 핵 표준을 최소화하는 SVM 솔루션으로 수렴합니다

. 대조적으로, W를 통해 직접 매개변수화하면 Frobenius 표준 SVM 목표가 최소화됩니다. 이 논문에서는 이러한 수렴을 설명하고 전역 최적이 아닌 지역 최적의 방향으로 발생할 수 있음을 강조합니다. 내 말 들어봐, Transformer는 서포트 벡터 머신이야(2) 이 논문은 또한 적절한 기하학적 조건에서 W 매개변수화 경사하강법의 로컬/글로벌 방향 수렴을 보여줍니다. 중요한 것은 과잉 매개변수화는 SVM 문제의 실현 가능성을 보장하고 고정점 없이 온화한 최적화 환경을 보장함으로써 전역 수렴을 촉진한다는 것입니다.

(3) 이 연구의 이론은 주로 선형 예측 헤드에 적용되지만, 연구팀은 비선형 헤드/MLP가 있는 1층 변압기의 암시적 바이어스를 예측할 수 있는 보다 일반적인 SVM 등가물을 제안합니다.

일반적으로 본 연구의 결과는 일반 데이터 세트에 적용 가능하며 교차 어텐션 레이어로 확장될 수 있으며, 철저한 수치 실험을 통해 연구 결론의 실질적인 타당성을 검증했습니다. 본 연구는 다층 변환기를 최고의 토큰을 분리하고 선택하는 SVM 계층으로 보는 새로운 연구 관점을 확립합니다.

구체적으로, 길이 T의 입력 시퀀스와 임베딩 차원 d

가 주어지면 이 연구에서는 핵심 Cross-Attention 및 Self-Attention 모델을 분석합니다.

내 말 들어봐, Transformer는 서포트 벡터 머신이야

여기서 K, Q, V는 각각 학습 가능한 키, 쿼리, 값 행렬입니다. 내 말 들어봐, Transformer는 서포트 벡터 머신이야 S(・)는 행별로 적용되는 소프트맥스 비선형성을 나타냅니다내 말 들어봐, Transformer는 서포트 벡터 머신이야. 이 연구에서는 Z의 첫 번째 토큰(z로 표시)이 예측에 사용된다고 가정합니다. 특히 훈련 데이터 세트 내 말 들어봐, Transformer는 서포트 벡터 머신이야, 내 말 들어봐, Transformer는 서포트 벡터 머신이야, 내 말 들어봐, Transformer는 서포트 벡터 머신이야가 주어지면 이 연구에서는 감소 손실 함수 내 말 들어봐, Transformer는 서포트 벡터 머신이야를 사용하여 다음을 최소화합니다. 는 가중치 V 값을 포함하는 예측 헤더. 이 공식에서 모델 f(・)는 Attention 레이어 뒤에 MLP가 오는 단일 레이어 변환기를 정확하게 나타냅니다. 작성자는

내 말 들어봐, Transformer는 서포트 벡터 머신이야를 설정하여 (2)에서 self-attention을 복원합니다. 여기서 x_i는 시퀀스 X_i의 첫 번째 토큰을 나타냅니다. 소프트맥스 연산의 비선형적 특성으로 인해 최적화에 큰 어려움이 따릅니다. 예측 헤드가 고정되고 선형이더라도 문제는 볼록하지 않고 비선형적입니다. 본 연구에서 저자는 주의 가중치(K, Q 또는 W)를 최적화하고 이러한 문제를 극복하여 SVM의 기본 동등성을 확립하는 데 중점을 둡니다.

논문의 구조는 다음과 같습니다. 2장에서는 self-attention 및 최적화에 대한 예비 지식을 소개합니다. 3장에서는 self-attention의 최적화 기하학을 분석하여 attention 매개변수 RP가 최대 한계 솔루션에 수렴함을 보여줍니다. 4장과 5장은 각각 전역 및 로컬 경사하강법 분석을 소개하며, 핵심 쿼리 변수 W가 (Att-SVM)의 해로 수렴됨을 보여줍니다. 6장은 비선형 예측 헤드와 일반화된 SVM의 동등성에 대한 결과를 제공합니다. 6 7장은 이론을 순차 및 인과 예측으로 확장합니다. 8장은 관련 문헌을 논의합니다. 마지막으로 9장에서는 열린 질문과 향후 연구 방향을 제시하며 마무리한다. 내 말 들어봐, Transformer는 서포트 벡터 머신이야내 말 들어봐, Transformer는 서포트 벡터 머신이야논문의 주요 내용은 다음과 같습니다.

Attention 레이어의 암시적 편향(2-3장)

정규화가 사라질 때 Attention 매개변수(K, Q)를 최적화하면, 방향에서 최대 한계해

로 수렴할 것이며, 핵 표준 목표는 조합 매개변수 입니다. 결합된 매개변수 W를 사용하여 교차 주의를 직접 매개변수화하는 경우 정규화 경로(RP)는 Frobenius 표준을 목표로 하는 (Att-SVM) 솔루션으로 방향적으로 수렴됩니다.

이것은 W와 (K, Q) 파라메트릭 최적화 역학을 공식적으로 구별하여 후자에서 낮은 차수 편향을 드러낸 첫 번째 결과입니다. 본 연구의 이론은 선택된 토큰의 최적성을 명확하게 설명하며 자연스럽게 시퀀스 간 또는 인과 분류 설정으로 확장됩니다. 내 말 들어봐, Transformer는 서포트 벡터 머신이야내 말 들어봐, Transformer는 서포트 벡터 머신이야 경사하강법의 수렴(4-5장)

적절한 초기화 및 선형 수두 h(・)를 사용하면 결합된 키 쿼리 변수 W의 경사하강법(GD) 반복이 다음 방향으로 수렴됩니다. (Att-SVM)의 로컬 최적 솔루션(섹션 5). 로컬 최적을 달성하려면 선택한 토큰이 인접한 토큰보다 높은 점수를 가져야 합니다.

로컬 최적 방향은 반드시 고유한 것은 아니며 문제의 기하학적 특성을 기반으로 결정될 수 있습니다[TLZO23]. 중요한 기여로 저자는 전역 최적을 향한 수렴을 보장하는 기하학적 조건을 식별했습니다(4장). 이러한 조건은 다음과 같습니다:

  • 가장 좋은 토큰은 점수에 뚜렷한 차이가 있습니다.
  • 초기 그라데이션 방향은 최고의 토큰과 일치합니다.

또한 논문에서는 (1)(Att-SVM) 및 (2) 양성의 타당성을 보장하여 과잉 매개변수화(즉, 차원 d가 크고 동일한 조건)를 보여줍니다. 글로벌 수렴을 촉진하기 위한 최적화 환경(즉, 정지점과 허위 로컬 최적 방향이 없음)(섹션 5.2 참조).

그림 1과 2가 이를 보여줍니다.

내 말 들어봐, Transformer는 서포트 벡터 머신이야


내 말 들어봐, Transformer는 서포트 벡터 머신이야

SVM 동등의 일반성(6장)

Attention 레이어는 선형 h(・)로 최적화할 때 내재됩니다. 하나의 토큰을 선택하는 편향 각 시퀀스(하드 어텐션이라고도 함). 이는 출력 토큰이 입력 토큰의 볼록 조합인 (Att-SVM)에 반영됩니다. 대조적으로, 저자는 비선형 헤드가 여러 토큰으로 구성되어야 함을 보여줌으로써 변압기 동역학에서의 중요성을 강조합니다(6.1절). 이론에서 얻은 통찰력을 사용하여 저자는 SVM에 대한 보다 일반적이고 동등한 접근 방식을 제안합니다.

특히 그들은 이론에서 다루지 않는 일반적인 경우(예: h(・)는 MLP임) 경사하강법을 통해 훈련된 주의의 암묵적 편향을 우리 방법이 정확하게 예측할 수 있음을 보여줍니다. 특히, 우리의 일반 공식은 주의 가중치를 두 부분으로 분리합니다. SVM에 의해 제어되는 방향 부분은 0-1 마스크를 적용하여 마커를 선택하고, 소프트맥스 확률을 조정하는 유한 부분은 선택된 토큰의 정확한 구성을 결정합니다.

이러한 결과의 중요한 특징은 임의의 데이터 세트(SVM이 가능한 한)에 적용되고 수치적으로 검증될 수 있다는 것입니다. 저자는 변환기의 최대 한계 등가성과 내재적 바이어스를 광범위하게 실험적으로 검증했습니다. 저자는 이러한 발견이 변환기를 계층적 최대 마진 토큰 선택 메커니즘으로 이해하는 데 기여하고 최적화 및 일반화 역학에 대한 향후 연구의 기반을 마련할 수 있다고 믿습니다.

위 내용은 내 말 들어봐, Transformer는 서포트 벡터 머신이야의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제