>  기사  >  기술 주변기기  >  Transformer 기획의 단점을 보완하기 위해 Tian Yuandong 팀의 Searchformer가 인기를 얻었습니다.

Transformer 기획의 단점을 보완하기 위해 Tian Yuandong 팀의 Searchformer가 인기를 얻었습니다.

WBOY
WBOY앞으로
2024-02-26 08:01:22454검색

Transformer의 강력한 일반화 능력이 다시 한번 입증되었습니다!

최근 몇 년 동안 트랜스포머 기반 구조물은 다양한 작업에서 탁월한 성능을 발휘하여 전 세계적으로 주목을 받고 있습니다. 이 구조를 사용하고 이를 대량의 데이터와 결합하면 LLM(대형 언어 모델)과 같은 결과 모델이 실제 애플리케이션 시나리오에 잘 적용될 수 있습니다.

일부 영역에서의 성공에도 불구하고 Transformer 기반 아키텍처와 LLM은 특히 계획 및 추론 작업을 처리하는 데 여전히 어려움에 직면해 있습니다. 이전 연구에 따르면 LLM은 다단계 계획 작업이나 고차원 추론 작업을 처리하는 데 어려움을 겪는 것으로 나타났습니다.

Transformer의 추론 및 계획 성능을 향상시키기 위해 최근 연구계에서도 몇 가지 방법을 제안했습니다. 가장 일반적이고 효과적인 방법 중 하나는 인간의 사고 과정을 시뮬레이션하는 것입니다. 먼저 중간 "생각"을 생성한 다음 응답을 출력합니다. 예를 들어, CoT(사고 사슬) 프롬프트 방법은 모델이 중간 단계를 예측하고 단계별 "사고"를 수행하도록 장려합니다. 사고 트리(ToT)는 분기 전략과 평가 방법을 사용하여 모델이 여러 가지 사고 경로를 생성할 수 있도록 한 다음 그 중에서 최상의 경로를 선택합니다. 이러한 기술은 효과적인 경우가 많지만, 연구에 따르면 많은 경우 이러한 방법이 자체 시행을 포함한 이유로 인해 모델 성능을 저하시키는 것으로 나타났습니다.

한 데이터세트에서는 잘 작동하는 기술이 다른 데이터세트에서는 잘 작동하지 않을 수도 있습니다. 이는 공간적 추론에서 수학적 또는 상식적 추론으로의 전환과 같이 필요한 추론 유형의 변화로 인한 것일 수 있습니다.

반면, 전통적인 기호 계획 및 검색 기술은 탁월한 추론 능력을 보여줍니다. 또한 기호 계획 알고리즘은 일반적으로 잘 정의된 규칙 기반 검색 프로세스를 따르기 때문에 이러한 전통적인 방법으로 계산된 솔루션은 형식적인 보장을 갖는 경우가 많습니다.

Transformer에 복잡한 추론 기능을 탑재하기 위해 Meta FAIR Tian Yuandong 팀은 최근 Searchformer를 제안했습니다.

Transformer 기획의 단점을 보완하기 위해 Tian Yuandong 팀의 Searchformer가 인기를 얻었습니다.

  • 논문 제목: Beyond A*: Better Planning with Transformers via Search Dynamics Bootstrapping

  • 논문 주소: https://arxiv.org/pdf/2402.14083.pdf

Searchformer는 Transformer입니다. 모델이지만 미로 탐색, 상자 밀기와 같은 다단계 계획 작업의 경우 최적의 계획을 계산할 수 있으며 사용되는 검색 단계 수는 A* 검색과 같은 기호 계획 알고리즘보다 훨씬 적을 수 있습니다.

이를 위해 팀에서는 검색 역학 부트스트래핑이라는 새로운 방법을 제안했습니다. 이 방법은 먼저 A*의 검색 프로세스를 모방하도록 Transformer 모델을 훈련한 다음(그림 1 참조) 더 적은 검색 단계로 최적의 계획을 찾을 수 있도록 미세 조정합니다. 즉, 첫 번째 단계는 A* 검색을 모방하는 Transformer 모델을 교육하는 것입니다. 여기서 팀의 접근 방식은 A*가 실행될 때 수행된 계산을 최적으로 기록하는 것입니다. 이를 단어 시퀀스, 즉 토큰으로 계획하고 구성합니다. 이러한 방식으로 결과 학습 데이터 세트에는 A*의 실행 궤적이 포함되고 A* 자체의 검색 역학에 대한 정보가 인코딩됩니다.

두 번째 단계는 전문적인 반복 방법을 사용하여 위의 검색 강화 시퀀스(A*의 실행 궤적 포함)를 사용하여 교육을 더욱 개선하는 것입니다. Searchformer 전문가 반복 방법을 사용하면 Transformer가 더 적은 검색 단계로 최적의 솔루션을 생성할 수 있습니다. 이 프로세스는 Transformer의 네트워크 가중치에 암시적으로 인코딩되는 신경 프로그래밍 알고리즘을 생성하며 더 적은 검색 단계로 최적의 계획을 찾을 확률이 높습니다. 예를 들어 상자 밀기 작업을 수행할 때 새 모델은 테스트 작업의 93.7%를 해결할 수 있는 반면 검색 단계 수는 평균적으로 A* 검색보다 26.8% 적습니다. Transformer는 기존의 기호 계획 알고리즘을 능가할 수 있는 길을 열었습니다. Transformer 기획의 단점을 보완하기 위해 Tian Yuandong 팀의 Searchformer가 인기를 얻었습니다.

실험

결과 모델의 성능에 대한 교육 데이터 및 모델 매개변수 볼륨의 영향을 더 잘 이해하기 위해 몇 가지 절제 연구를 수행했습니다.

두 가지가 사용되었습니다. 모델을 훈련하기 위한 데이터 세트 유형: 하나는 솔루션만 포함하는 토큰 시퀀스(작업 설명 및 최종 계획만 포함되는 솔루션 전용)이고, 다른 하나는 작업 설명을 포함하는 검색 확대 시퀀스입니다. 검색 트리 역학 및 최종 계획)

실험에서 팀은 A* 검색의 결정론적 및 비결정론적 변형을 사용하여 각 시퀀스 데이터 세트를 생성했습니다.

Maze 탐색

첫 번째 실험에서 팀은 30×30 미로에서 최적의 경로를 예측하기 위해 일련의 인코더-디코더 변환기 모델을 훈련했습니다

그림 4는 중간 계산 단계를 예측함으로써 데이터 양이 적을 때 더욱 강력한 성능을 달성할 수 있음을 보여줍니다.

Transformer 기획의 단점을 보완하기 위해 Tian Yuandong 팀의 Searchformer가 인기를 얻었습니다.

그림 5는 솔루션만을 사용하여 훈련된 모델의 성능을 보여줍니다.

Transformer 기획의 단점을 보완하기 위해 Tian Yuandong 팀의 Searchformer가 인기를 얻었습니다.

그림 6은 작업 난이도가 각 모델의 성능에 미치는 영향을 보여줍니다.

Transformer 기획의 단점을 보완하기 위해 Tian Yuandong 팀의 Searchformer가 인기를 얻었습니다.

전체적으로 솔루션만을 사용하여 훈련한 모델은 사용된 훈련 데이터 세트가 충분히 크고 다양할 때 최적의 계획을 예측할 수 있지만, 데이터의 양이 적을 때는 검색 강화 모델의 성능이 크게 향상됩니다. 더 어려운 작업에 대해서도 더 좋고 확장성이 좋습니다.

푸싱 박스

Transformer 기획의 단점을 보완하기 위해 Tian Yuandong 팀의 Searchformer가 인기를 얻었습니다.

다양하고 더 복잡한 작업(다양한 토큰화 모드 사용)에서 유사한 결과를 얻을 수 있는지 테스트하기 위해 팀에서는 테스트용 푸시 박스의 계획 데이터 세트도 생성했습니다.

그림 7은 각 모델이 각 테스트 작업에 대해 올바른 계획을 생성할 확률을 보여줍니다.

Transformer 기획의 단점을 보완하기 위해 Tian Yuandong 팀의 Searchformer가 인기를 얻었습니다.

이전 실험과 마찬가지로 실행 추적을 사용한 학습을 ​​통해 검색 강화 모델이 솔루션만 사용하여 학습한 모델보다 성능이 뛰어난 것을 확인할 수 있습니다.

Searchformer: 부트스트래핑 방법을 통해 검색 역학 개선

최종 실험으로 팀은 검색 강화 모델을 반복적으로 개선하여 더 적은 수의 검색 단계로 최적의 계획을 계산할 수 있는 방법을 조사했습니다. 여기서 목표는 최적의 솔루션을 얻으면서 검색 궤적 길이를 줄이는 것입니다.

Transformer 기획의 단점을 보완하기 위해 Tian Yuandong 팀의 Searchformer가 인기를 얻었습니다.

그림 8은 새로 제안된 검색 동적 안내 방법이 Searchformer 모델에서 생성된 시퀀스의 길이를 반복적으로 단축할 수 있음을 보여줍니다.

위 내용은 Transformer 기획의 단점을 보완하기 위해 Tian Yuandong 팀의 Searchformer가 인기를 얻었습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 jiqizhixin.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제