>  기사  >  기술 주변기기  >  단일 4090 추론 가능, 2000억 희소 대형 모델 "Tiangong MoE"가 오픈 소스입니다.

단일 4090 추론 가능, 2000억 희소 대형 모델 "Tiangong MoE"가 오픈 소스입니다.

WBOY
WBOY원래의
2024-06-05 22:14:46869검색

대형 모델의 물결 속에서 최첨단 밀집 세트 LLM을 교육하고 배포하는 것은 특히 수백억 또는 수천억 개의 매개변수 규모에서 계산 요구 사항 및 관련 비용 측면에서 큰 과제를 안겨줍니다. 이러한 과제를 해결하기 위해 전문가 혼합(MoE) 모델과 같은 희소 모델이 점점 더 중요해지고 있습니다. 이러한 모델은 리소스 요구 사항이 매우 낮은 밀집된 세트 모델의 성능과 일치하거나 심지어 그 성능을 초과할 가능성이 있는 다양한 특수 하위 모델 또는 "전문가"에게 계산을 분산함으로써 경제적으로 실행 가능한 대안을 제공합니다.

6월 3일, 오픈 소스 대형 모델 분야에서 또 다른 중요한 소식이 전해졌습니다. Kunlun Wanwei는 강력한 성능을 유지하면서 추론 비용을 대폭 절감하는 2000억 개의 희소 대형 모델 Skywork-MoE의 오픈 소스를 발표했습니다.

Kunlun Wanwei의 이전 오픈 소스 Skywork-13B 모델 중간 체크포인트를 기반으로 확장되었습니다. 이는 MoE 업사이클링 기술을 완전히 적용하고 구현하는 최초의 오픈 소스 1000억 MoE 대형 모델이기도 합니다. 단일 4090 서버. 수십억 개의 MoE 대형 모델.

대규모 모델 커뮤니티에서 더욱 주목을 끄는 점은 Skywork-MoE의 모델 가중치 및 기술 보고서가 완전히 오픈 소스이며 상업적 용도로 무료이며 애플리케이션이 필요하지 않다는 것입니다.

  • 모델 체중 다운로드 주소 :

○ https://huggingface.co/Skywork/Skywork-MoE-base

○ https://huggingface.co/Skywork/Skywork-MoE-Base-FP8

  • 모델 오픈 소스 웨어하우스: https://github.com/SkyworkAI/Skywork-MoE

  • 모델 기술 보고서: https://github.com/SkyworkAI/Skywork-MoE/blob/main/skywork-moe - tech-report.pdf

  • 모델 추론 코드: (8x4090 서버에서 8비트 양자화 로드 추론 지원) https://github.com/SkyworkAI/vllm

Skywork-MoE는 현재 다음을 추론할 수 있습니다. 8x4090 서버 최대 규모의 오픈 소스 MoE 모델입니다. 8x4090 서버에는 총 192GB의 GPU 메모리가 있습니다. Kunlun Wanwei 팀이 개척한 비균일 Tensor 병렬 추론 방법을 사용하여 FP8 양자화(무게는 146GB를 차지함)에서 Skywork-MoE는 적합한 범위 내에서 초당 2200개의 토큰에 도달할 수 있습니다. 배치 크기.

전체 관련 추론 프레임워크 코드 및 설치 환경은 https://github.com/SkyworkAI/Skywork-MoE

Skywork-MoE Introduction

이 오픈 소스 Skywork-MoE 모델에 속합니다. Tiangong 3.0 R&D 모델 시리즈는 중급 모델(Skywork-MoE-Medium)로 모델의 총 매개변수 양은 146B, 활성화 매개변수 양은 22B이며 각 전문가 크기는 총 16개입니다. , 그리고 매번 2개씩 활성화됩니다.

Tiangong 3.0은 이 오픈 소스에 포함되지 않은 75B(Skywork-MoE-Small) 및 400B(Skywork-MoE-Large)라는 두 가지 MoE 모델도 훈련한 것으로 이해됩니다.

Kunlun Wanwei는 주요 주류 모델의 현재 평가 목록을 기반으로 Skywork-MoE를 평가했습니다. 동일한 활성화 매개변수 금액 20B(추론 계산 금액)에서 Skywork-MoE의 기능은 70B 밀도에 가까운 업계 최전선에 있습니다. 모델. 이를 통해 모델의 추론 비용이 거의 3배 감소합니다.

단일 4090 추론 가능, 2000억 희소 대형 모델 Tiangong MoE가 오픈 소스입니다.

Skywork-MoE의 전체 매개변수 크기가 DeepSeekV2의 전체 매개변수 크기보다 1/3 작아서 더 작은 매개변수 크기로 유사한 기능을 달성한다는 점은 주목할 가치가 있습니다.

기술 혁신

어려운 MoE 모델 훈련과 열악한 일반화 성능 문제를 해결하기 위해 Skywork-MoE는 두 가지 훈련 최적화 알고리즘을 설계했습니다.

Gating Logits 정규화 작업

Skywork-MoE in Gating 정규화 작업이 레이어의 토큰 배포 논리에 추가되어 게이팅 레이어의 매개변수 학습이 선택된 상위 2개 전문가에게 더욱 기울어지고 상위 2개 전문가에 대한 MoE 모델의 신뢰도가 높아집니다.

단일 4090 추론 가능, 2000억 희소 대형 모델 Tiangong MoE가 오픈 소스입니다.적응형 보조 손실

은 고정 계수(고정 하이퍼파라미터)를 사용하는 기존 보조 손실과 다릅니다. Skywork-MoE를 사용하면 모델이 MoE 교육의 여러 단계에서 적절한 보조 손실 하이퍼파라미터 계수를 적응적으로 선택할 수 있으므로 드롭 토큰 비율을 다음으로 유지할 수 있습니다. 적절한 구간을 설정하면 전문가 분포의 균형을 맞추고 전문가 학습을 차별화할 수 있어 모델의 전반적인 성능과 일반화 수준이 향상됩니다. MoE 훈련 초기에는 매개변수 학습이 부족하여 토큰 드롭 비율이 너무 높습니다(토큰 분배 차이가 너무 큼). 이때 나중에 토큰 로드 밸런싱을 돕기 위해 더 큰 보조 손실이 필요합니다. MoE 교육 단계에서 Skywork-MoE 팀은 토큰을 무작위로 배포하는 Gating의 경향을 피하기 위해 전문가 간에 어느 정도의 차별화가 여전히 보장되므로 수정을 줄이기 위해 더 낮은 보조 손실이 필요하기를 바랍니다.

단일 4090 추론 가능, 2000억 희소 대형 모델 Tiangong MoE가 오픈 소스입니다.

Training Infra

MoE 모델의 대규모 분산 교육을 효율적으로 수행하는 방법은 어려운 과제입니다. Skywork-MoE는 킬로칼로리 클러스터에서 MFU의 38% 훈련 처리량을 달성하기 위해 두 가지 중요한 병렬 최적화 설계를 제안합니다. 여기서 MFU는 활성화 매개변수 22B를 사용하여 이론적 계산 부하를 계산합니다.

전문 데이터 병렬

Megatron-LM 커뮤니티의 기존 EP(Expert Parallel) 및 ETP(Expert Tensor Parallel) 설계와 달리 Skywork-MoE 팀은 Expert Data Parallel이라는 병렬 설계 솔루션을 제안했습니다. 숫자가 작아도 모델을 효율적으로 분할할 수 있으며 Expert가 도입한 all2all 커뮤니케이션도 최대한 최적화하고 마스킹할 수 있습니다. GPU 수에 대한 EP의 제한과 킬로 카드 클러스터에 대한 ETP의 비효율성과 비교할 때 EDP는 대규모 분산 교육 MoE의 병렬 문제점을 더 잘 해결할 수 있습니다. 동시에 EDP의 디자인은 간단하고 강력하며 확장하기 쉽습니다. 빠른 구현 및 검증이 가능합니다. E 가장 간단한 EDP 예 중 하나, TP = 2, 2개의 카드의 경우 EP = 2, Attention 부분은 Tensor Parallel을 사용하고 Expert 부분은 Expert Parallel

단일 4090 추론 가능, 2000억 희소 대형 모델 Tiangong MoE가 오픈 소스입니다.

비균일 절삭수 평행수 평행을 사용 water 첫 번째 단계의 Embedding 계산과 마지막 단계의 Loss 계산, 파이프라인 버퍼의 존재로 인해 각 단계의 컴퓨팅 부하와 비디오 메모리 부하에 불균형이 발생합니다. 레이어는 파이프라인 병렬 처리에 따라 균등하게 나뉩니다. Skywork-MoE 팀은 전체 컴퓨팅/그래픽 메모리 부하의 균형을 맞추고 종단 간 훈련 처리량을 약 10% 향상시키기 위해 비균일 파이프라인 병렬 분할 및 재계산 레이어 할당 방법을 제안했습니다.

균일 분할과 비균일 분할 하의 파이프라인 병렬 버블 비교: 24레이어 LLM의 경우 (a)는 4단계로 균등하게 나뉘며 각 단계의 레이어 수는 [ 6 , 6, 6, 6] (b)는 최적화된 비균일 분할 방법으로, 각 단계의 레이어 수는 [5, 5, 5, 5, 4]입니다. 중간 단계에는 흐르는 물이 채워지고, 고르지 않게 나누어진 거품은 더욱 낮아집니다.

단일 4090 추론 가능, 2000억 희소 대형 모델 Tiangong MoE가 오픈 소스입니다.

또한 Skywork-MoE는 업사이클링 및 From Scratch 교육 MoE 모델의 성능에 어떤 제약 조건이 영향을 미치는지 알아보기 위해 스케일링 법칙을 기반으로 일련의 실험을 수행했습니다.

따라야 할 경험 법칙은 다음과 같습니다. MoE 모델 교육의 FLOP가 Dense 모델 교육의 FLOP의 2배 이상이면 스크래치에서 MoE 교육을 선택하는 것이 더 좋습니다. MoE 교육을 위해 업사이클링을 선택하면 교육 비용을 크게 줄일 수 있습니다.

위 내용은 단일 4090 추론 가능, 2000억 희소 대형 모델 "Tiangong MoE"가 오픈 소스입니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.