찾다
기술 주변기기일체 포함최초의 1000억 모델 압축 알고리즘인 SparseGPT가 출시되어 높은 정확도를 유지하면서 컴퓨팅 전력 비용을 절감합니다.

​2020년 GPT-3 등장 이후 ChatGPT의 인기로 인해 GPT 제품군의 생성적 대규모 언어 모델이 다시 한 번 주목을 받았으며 다양한 작업에서 강력한 성능을 보여왔습니다.

그러나 모델의 규모가 크면 컴퓨팅 비용도 증가하고 배포 난이도도 높아집니다.

예를 들어 GPT‑175B 모델은 반정밀도(FP16) 형식으로 총 320GB 이상의 저장 공간을 차지하며 추론 중에는 80GB 저장 공간이 있는 A100 GPU가 5개 이상 필요합니다.

모델 압축은 현재 대형 모델의 계산 비용을 줄이기 위해 일반적으로 사용되는 방법이지만, 지금까지 거의 모든 기존 GPT 압축 방법은 양자화, 즉 개별 가중치를 줄이는 데 중점을 두고 수치 표현의 정밀도를 높였습니다.

또 다른 모델 압축 방법은 개별 가중치(구조화되지 않은 가지치기)부터 가중치 행렬의 전체 행/열(구조화된 가지치기)과 같은 더 세분화된 구성 요소에 이르기까지 네트워크 요소를 제거하는 가지치기입니다. 이 접근 방식은 비전 및 소규모 언어 모델에서는 잘 작동하지만 정확성이 손실되어 정확성을 복원하기 위해 모델을 광범위하게 재교육해야 하므로 GPT와 같은 대규모 모델의 경우 비용이 다시 너무 비쌉니다. . 재교육 없이 모델을 압축할 수 있는 몇 가지 단발성 가지치기 방법이 있지만 이는 너무 계산 집약적이며 수십억 개의 매개변수가 있는 모델에 적용하기 어렵습니다.

그럼 GPT-3 크기의 대형 모델의 경우 정확도 손실을 최소화하고 계산 비용을 줄이면서 정확하게 정리할 수 있는 방법이 있을까요?

최근 오스트리아 과학 기술 연구소(ISTA)의 두 연구원인 Elias Frantar와 Dan Alistarh는 100억~1000억 매개변수의 모델 규모에 대해 처음으로 정확한 단일 샷 가지치기를 제안하는 연구에 협력했습니다. . 방법SparseGPT.

최초의 1000억 모델 압축 알고리즘인 SparseGPT가 출시되어 높은 정확도를 유지하면서 컴퓨팅 전력 비용을 절감합니다.

문서 주소: https://arxiv.org/pdf/2301.00774.pdf

SparseGPT는 재교육 없이 한 단계로 GPT 시리즈 모델을 50% 희소성으로 정리할 수 있습니다. 공개적으로 사용 가능한 가장 큰 모델인 GPT-175B는 단일 GPU를 사용하여 단 몇 시간 만에 이러한 가지치기 작업을 수행합니다.

또한 SparseGPT는 매우 정확하며 정확도 손실을 최소화할 수 있습니다. 예를 들어 현재 가장 큰 오픈 소스 모델 OPT‑175B 및 BLOOM‑176B에서 SparseGPT를 실행하면 정확도 손실을 최소화하면서 60%의 희소성을 달성할 수 있습니다.

Electric Drive SparseGPT Algorithm

최근 몇 년간 초대형 모델에 대한 연구가 매우 활발하지만, 지금까지 매우 정확한 고수준 희소화를 달성할 수 있는 100억 개 이상의 매개변수를 갖춘 모델은 없습니다.

기존 방법은 계산 비용이 너무 높습니다. 현재 가장 정확한 사후 학습 방법인 OBC를 예로 들면, 10억 매개변수 모델의 경우 압축하는 데 1시간 이상이 걸립니다. 가장 빠른 것으로 알려진 사후 학습 방법인 AdaPrune도 10억 매개변수 모델을 정리하는 데 몇 분이 걸리며, 이 속도로 GPT-3 규모의 모델에는 수백 시간(주)의 계산이 필요한 것으로 추정됩니다.

점진적 크기 가지치기와 같은 대부분의 기존 가지치기 방법은 정확성을 복원하기 위해 가지치기 단계 후 광범위한 재훈련이 필요하며 GPT 규모 모델은 일반적으로 광범위한 재훈련이 필요합니다. 훈련이나 미세 조정에 필요한 계산량과 매개변수 조정이 재훈련을 어렵게 만듭니다. 기반 방법을 적용하기가 어렵습니다. 따라서 이러한 점진적 가지치기 접근 방식을 GPT 규모에 적용하는 것은 불가능합니다.

ISTA 팀의 이 작업은 SparseGPT 방법을 제안합니다. 이 방법은 단일 GPU에서 1000억 개가 넘는 매개변수가 있는 모델을 몇 시간 안에 실행할 수 있으며 모델을 희소성 수준 50%로 잘라낼 만큼 정확합니다. 60%, 성능이 크게 저하되지 않습니다.

SparseGPT의 핵심에는 반구조적(2:4 및 4:8) 모드로 일반화하고 기존 가중치 양자화 방법과 호환되는 새로운 대규모 근사 희소 회귀 알고리즘이 있습니다.

최초의 1000억 모델 압축 알고리즘인 SparseGPT가 출시되어 높은 정확도를 유지하면서 컴퓨팅 전력 비용을 절감합니다.

점진적 규모 가지치기와 같은 대부분의 기존 가지치기 방법은 정확성을 복원하기 위해 가지치기 단계 이후 광범위한 재훈련이 필요하며, GPT 규모 모델은 종종 훈련 또는 미세 조정을 위해 많은 양의 계산 및 매개변수 조정이 필요합니다. 이는 재훈련 기반 방법을 적용하기 어렵게 만듭니다. 따라서 이러한 점진적 가지치기 접근 방식을 GPT 규모에 적용하는 것은 불가능합니다.

SparseGPT는 미세 조정을 수행하지 않기 때문에 GPT 규모 모델에 대한 사후 학습 방법입니다.

현재 ZeroQuant, LLM.int8(), nuQmm 등 GPT 규모 모델의 사후 학습을 정량화하는 방법은 많지만 비정상적인 특징이 존재하기 때문에 활성화 양자화가 어려울 수 있습니다. GPTQ는 대략적인 2차 정보를 활용하여 가중치를 가장 큰 모델에 적합한 2-4비트로 정확하게 양자화하며, 효율적인 GPU 코어와 결합하면 2-5배의 추론 가속이 가능합니다.

그러나 GPTQ는 양자화보다는 희소화에 중점을 두기 때문에 SparseGPT는 양자화 방법을 보완하는 것이며, 두 가지를 조합하여 적용할 수 있습니다.

또한 SparseGPT는 구조화되지 않은 가지치기 외에도 Ampere NVIDIA GPU에서 2:4 비율로 가속을 달성할 수 있는 인기 있는 n:m 스파스 형식과 같은 반구조적 패턴에도 적합합니다.

SparseGPT: 높은 희소화 수준, 낮은 정확도 손실

SparseGPT 압축 모델의 효과를 평가한 결과, 연구진은 대규모 언어 모델의 희소화 어려움은 모델 크기에 비례한다는 것을 발견했는데, 이는 기존 비교와는 다릅니다. Magnitude Pruning 방법을 사용하면 SparseGPT를 사용하여 정확도 손실을 최소화하면서 더 높은 수준의 모델 희소성을 달성할 수 있습니다.

연구원들은 PyTorch에 SparseGPT를 구현하고 HuggingFace의 Transformers 라이브러리를 사용하여 80GB 메모리를 갖춘 단일 NVIDIA A100 GPU에서 모델과 데이터 세트를 모두 처리했습니다. 이러한 실험 조건에서 SparseGPT는 약 4시간 만에 1,750억 매개변수 모델의 완전한 희소화를 달성할 수 있습니다.

연구원들은 Transformer 레이어를 순차적으로 희소화하여 메모리 요구 사항을 크게 줄이고 모든 레이어를 병렬로 처리하는 정확도를 크게 향상시킵니다. 모든 압축 실험은 미세 조정 없이 한 번에 수행되었습니다.

평가 대상은 주로 OPT 시리즈 모델이며, 여기에는 1억 2,500만 ~ 1,750억 개의 매개변수로 구성된 모델 세트가 포함되어 있어 모델 크기에 따른 가지치기의 확장 성능을 쉽게 관찰할 수 있습니다. 또한 BLOOM의 1,760억 개의 매개변수 변형이 분석되었습니다.

데이터 세트 및 평가 지표 측면에서 실험은 원본 WikiText2 테스트 세트의 복잡성을 사용하여 SparseGPT 압축 방법의 정확성을 평가하는 동시에 해석 가능성을 높이기 위해 일부 ZeroShot 정확도 지표를 사용합니다. 또한 사용됩니다. 또한 평가에서는 절대 수치보다는 조밀한 모델 기준선을 기준으로 한 희소 모델의 정확성에 중점을 둡니다.

연구원들은 전체 OPT 모델 시리즈(표준 임베딩 및 헤더 제외)의 모든 선형 레이어를 정리하여 각각 전체 4:8 또는 전체 2:4의 구조화되지 않은 희소성을 달성했으며 결과는 다음과 같습니다. 아래에 표시됩니다.

최초의 1000억 모델 압축 알고리즘인 SparseGPT가 출시되어 높은 정확도를 유지하면서 컴퓨팅 전력 비용을 절감합니다.

진폭 가지치기를 사용하여 압축한 모델의 정확도는 모든 크기에서 좋지 않으며, 모델이 클수록 정확도가 떨어지는 것을 알 수 있습니다.

SparseGPT를 사용하여 압축한 모델의 추세는 다릅니다. 27억 개의 매개변수에서는 Perplexity 손실이 1포인트 미만이고, 660억 개의 매개변수 미만에서는 손실이 없습니다. 또한 밀도가 높은 모델의 기준선에 비해 매우 큰 모델 크기에서 정확도가 향상됩니다.

큰 모델은 희소화하기 쉽습니다.

일반적인 추세는 더 큰 모델이 희소화하기 쉽다는 것입니다. 고정된 희소성 수준에서는 모델 크기가 증가함에 따라 희소 모델의 상대적 정확도가 감소합니다. . 저자는 이것이 더 높은 수준의 매개변수화와 전반적으로 더 큰 잡음에 대한 내성 때문일 수 있다고 추측합니다.

최대 규모의 조밀한 모델 기준과 비교하여 SparseGPT를 사용하여 모델을 4:8 및 2:4 희소성으로 압축할 때 복잡성 증가는 각각 0.11 및 0.39에 불과합니다. 이 결과는 실제로 2배의 속도 향상을 달성할 수 있으며 상용 NVIDIA Ampere GPU는 이미 2:4 희소성을 지원한다는 것을 의미합니다.

저자는 20억 모델인 OPT-175B와 BLOOM-176B의 성능과 SparseGPT를 사용하여 발생하는 희소성 정도 사이의 관계를 연구했습니다. 그 결과는 아래 그림과 같습니다.

최초의 1000억 모델 압축 알고리즘인 SparseGPT가 출시되어 높은 정확도를 유지하면서 컴퓨팅 전력 비용을 절감합니다.

OPT-175B 모델의 경우 진폭 가지치기를 통해 최대 10%의 희소성을 달성할 수 있으며 그 뒤에는 큰 정확도 손실이 따르는 것을 볼 수 있습니다. SparseGPT는 또한 복잡성이 증가하면서 60%의 희소성을 달성할 수 있습니다.

최초의 1000억 모델 압축 알고리즘인 SparseGPT가 출시되어 높은 정확도를 유지하면서 컴퓨팅 전력 비용을 절감합니다.

BLOOM-176B 모델의 경우 진폭 가지치기를 사용하면 상당한 정확도 손실 없이 30% 희소성을 달성할 수 있는 반면, SparseGPT는 1.66배 향상된 50% 희소성을 달성할 수 있습니다. 더욱이 80% 희소성에서 SparseGPT를 사용하여 압축된 모델의 복잡도는 여전히 합리적인 수준으로 유지되지만 진폭 가지치기가 OPT의 희소성 40% 및 BLOOM의 희소성 60%에 도달하면 당혹성은 이미 100을 초과합니다.

또한 SparseGPT는 이러한 모델에서 약 1,000억 개의 가중치를 제거할 수 있으며 모델 정확도에 미치는 영향은 제한적입니다.

마지막으로, 이 연구는 Transformer를 기반으로 한 대규모 사전 훈련 모델이 재훈련 없이 매우 낮은 정확도 손실로 일회성 가중치 가지치기를 통해 높은 희소성으로 압축될 수 있음을 처음으로 보여줍니다.

SparseGPT의 방법이 로컬이라는 점은 주목할 가치가 있습니다. 각 가지치기 단계 후에 각 레이어의 입력-출력 관계를 보존하는 것을 목표로 가중치 업데이트를 수행하며 이러한 업데이트는 상황에 따라 계산된 전역 그라데이션 정보 없이 수행됩니다. . 따라서 대규모 GPT 모델의 높은 수준의 매개변수화를 통해 이 접근 방식을 통해 사전 훈련된 조밀한 모델의 "이웃 모델" 중에서 희박하고 정확한 모델을 직접 식별할 수 있는 것으로 보입니다.

또한 실험에 사용된 정확도 지표(perplexity)가 매우 민감하기 때문에 생성된 희소 모델 출력은 밀집 모델의 출력과 밀접한 관련이 있는 것으로 보입니다.

이 연구는 대형 모델의 컴퓨팅 성능 한계를 완화하는 데 큰 긍정적인 의미가 있습니다. 향후 작업 방향 중 하나는 대형 모델의 미세 조정 메커니즘을 연구하여 동시에 SparseGPT 방법을 확장하는 것입니다. 모델 교육을 적용하면 대규모 모델을 교육하는 데 드는 계산 비용이 줄어듭니다.

위 내용은 최초의 1000억 모델 압축 알고리즘인 SparseGPT가 출시되어 높은 정확도를 유지하면서 컴퓨팅 전력 비용을 절감합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
이 기사는 51CTO.COM에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제
신속한 엔지니어링에서 생각의 그래프는 무엇입니까?신속한 엔지니어링에서 생각의 그래프는 무엇입니까?Apr 13, 2025 am 11:53 AM

소개 신속한 엔지니어링에서 "Thought of Thought"는 그래프 이론을 사용하여 AI의 추론 과정을 구성하고 안내하는 새로운 접근법을 나타냅니다. 종종 선형 S와 관련된 전통적인 방법과 달리

Genai 에이전트와 함께 조직의 이메일 마케팅을 최적화하십시오Genai 에이전트와 함께 조직의 이메일 마케팅을 최적화하십시오Apr 13, 2025 am 11:44 AM

소개 축하해요! 당신은 성공적인 사업을 운영합니다. 웹 페이지, 소셜 미디어 캠페인, 웹 세미나, 컨퍼런스, 무료 리소스 및 기타 소스를 통해 매일 5000 개의 이메일 ID를 수집합니다. 다음 명백한 단계는입니다

Apache Pinot을 사용한 실시간 앱 성능 모니터링Apache Pinot을 사용한 실시간 앱 성능 모니터링Apr 13, 2025 am 11:40 AM

소개 오늘날의 빠르게 진행되는 소프트웨어 개발 환경에서 최적의 애플리케이션 성능이 중요합니다. 응답 시간, 오류율 및 자원 활용과 같은 실시간 메트릭 모니터링 메인이 도움이 될 수 있습니다.

Chatgpt가 10 억 명의 사용자를 쳤습니까? Openai CEO는'몇 주 만에 두 배가되었습니다Chatgpt가 10 억 명의 사용자를 쳤습니까? Openai CEO는'몇 주 만에 두 배가되었습니다Apr 13, 2025 am 11:23 AM

"얼마나 많은 사용자가 있습니까?" 그는 자극했다. Altman은“마지막으로 우리가 마지막으로 말한 것은 매주 5 억 명의 행위자이며 매우 빠르게 성장하고 있다고 생각합니다. 앤더슨은 계속해서“당신은 나에게 몇 주 만에 두 배가되었다고 말했습니다. “저는 그 개인이라고 말했습니다

Pixtral -12B : Mistral AI의 첫 번째 멀티 모드 모델 -Anuctics VidhyaPixtral -12B : Mistral AI의 첫 번째 멀티 모드 모델 -Anuctics VidhyaApr 13, 2025 am 11:20 AM

소개 Mistral은 최초의 멀티 모드 모델, 즉 Pixtral-12B-2409를 발표했습니다. 이 모델은 Mistral의 120 억 개의 매개 변수 인 NEMO 12B를 기반으로합니다. 이 모델을 차별화하는 것은 무엇입니까? 이제 이미지와 Tex를 모두 가져갈 수 있습니다

생성 AI 응용 프로그램을위한 에이전트 프레임 워크 - 분석 Vidhya생성 AI 응용 프로그램을위한 에이전트 프레임 워크 - 분석 VidhyaApr 13, 2025 am 11:13 AM

쿼리에 응답 할뿐만 아니라 자율적으로 정보를 모으고, 작업을 실행하며, 여러 유형의 데이터 (텍스트, 이미지 및 코드를 처리하는 AI 구동 조수가 있다고 상상해보십시오. 미래처럼 들리나요? 이것에서

금융 부문에서 생성 AI의 응용금융 부문에서 생성 AI의 응용Apr 13, 2025 am 11:12 AM

소개 금융 산업은 효율적인 거래 및 신용 가용성을 촉진함으로써 경제 성장을 주도하기 때문에 모든 국가 개발의 초석입니다. 거래가 발생하는 용이성 및 신용

온라인 학습 및 수동 공격 알고리즘 안내온라인 학습 및 수동 공격 알고리즘 안내Apr 13, 2025 am 11:09 AM

소개 소셜 미디어, 금융 거래 및 전자 상거래 플랫폼과 같은 소스에서 전례없는 속도로 데이터가 생성되고 있습니다. 이 지속적인 정보 스트림을 처리하는 것은 어려운 일이지만

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
4 몇 주 전By尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

맨티스BT

맨티스BT

Mantis는 제품 결함 추적을 돕기 위해 설계된 배포하기 쉬운 웹 기반 결함 추적 도구입니다. PHP, MySQL 및 웹 서버가 필요합니다. 데모 및 호스팅 서비스를 확인해 보세요.

DVWA

DVWA

DVWA(Damn Vulnerable Web App)는 매우 취약한 PHP/MySQL 웹 애플리케이션입니다. 주요 목표는 보안 전문가가 법적 환경에서 자신의 기술과 도구를 테스트하고, 웹 개발자가 웹 응용 프로그램 보안 프로세스를 더 잘 이해할 수 있도록 돕고, 교사/학생이 교실 환경 웹 응용 프로그램에서 가르치고 배울 수 있도록 돕는 것입니다. 보안. DVWA의 목표는 다양한 난이도의 간단하고 간단한 인터페이스를 통해 가장 일반적인 웹 취약점 중 일부를 연습하는 것입니다. 이 소프트웨어는

MinGW - Windows용 미니멀리스트 GNU

MinGW - Windows용 미니멀리스트 GNU

이 프로젝트는 osdn.net/projects/mingw로 마이그레이션되는 중입니다. 계속해서 그곳에서 우리를 팔로우할 수 있습니다. MinGW: GCC(GNU Compiler Collection)의 기본 Windows 포트로, 기본 Windows 애플리케이션을 구축하기 위한 무료 배포 가능 가져오기 라이브러리 및 헤더 파일로 C99 기능을 지원하는 MSVC 런타임에 대한 확장이 포함되어 있습니다. 모든 MinGW 소프트웨어는 64비트 Windows 플랫폼에서 실행될 수 있습니다.

SecList

SecList

SecLists는 최고의 보안 테스터의 동반자입니다. 보안 평가 시 자주 사용되는 다양한 유형의 목록을 한 곳에 모아 놓은 것입니다. SecLists는 보안 테스터에게 필요할 수 있는 모든 목록을 편리하게 제공하여 보안 테스트를 더욱 효율적이고 생산적으로 만드는 데 도움이 됩니다. 목록 유형에는 사용자 이름, 비밀번호, URL, 퍼징 페이로드, 민감한 데이터 패턴, 웹 셸 등이 포함됩니다. 테스터는 이 저장소를 새로운 테스트 시스템으로 간단히 가져올 수 있으며 필요한 모든 유형의 목록에 액세스할 수 있습니다.