对大模型进行量化、剪枝等压缩操作,是部署时最常见不过的一环了。
不过,这个极限究竟有多大?
清华大学和哈工大的一项联合研究给出的答案是:
90%。
他们提出了大模型1bit极限压缩框架OneBit,首次实现大模型权重压缩超越90%并保留大部分(83%)能力。
可以说,玩儿的就是“既要也要”~
一起来看看。
大模型1bit量化方法来了
从剪枝、量化,到知识蒸馏、权重低秩分解,大模型已经可以实现压缩四分之一权重而几乎无损。
权重量化通常是将大型模型的参数转换为低位宽的表示形式。这可以通过对经过充分训练的模型进行转换(PTQ)或在训练过程中引入量化步骤(QAT)来实现。这种方法有助于减少模型的计算和存储需求,从而提高模型的效率和性能。通过量化权重,可以显著减少模型的大小,使其更适合在资源受限的环境中部署,同时也有
然而,现有量化方法在低于3bit时面临严重的性能损失,这主要是由于:
- 现有的参数低位宽表示方法在1bit时存在严重的精度损失。基于Round-To-Nearest方法的参数以1bit表示时,其转换的缩放系数s和零点z会失去实际意义。
- 现有的1bit模型结构没有充分考虑到浮点精度的重要性。浮点参数的缺失可能影响模型计算过程的稳定性,严重降低其本身的学习能力。
为了克服1bit超低位宽量化的阻碍,作者提出一种全新的1bit模型框架:OneBit,它包括全新的1bit线性层结构、基于SVID的参数初始化方法和基于量化感知知识蒸馏的深度迁移学习。
这种新的1bit模型量化方法能够以极大的压缩幅度、超低的空间占用和有限的计算成本,保留原模型绝大部分的能力。这对于实现大模型在PC端甚至智能手机上的部署意义非凡。
整体框架
OneBit框架总体上可以包括:全新设计的1bit模型结构、基于原模型初始化量化模型参数的方法以及基于知识蒸馏的深度能力迁移。
这种全新设计的1bit模型结构能够有效克服以往量化工作在1bit量化时严重的精度损失问题,并且在训练、迁移过程中表现出出色的稳定性。
量化模型的初始化方法能为知识蒸馏设置更好的起点,加速收敛的同时获得更加的能力迁移效果。
1、1bit模型结构
1bit要求每个权重值只能用1bit表示,所以最多只有两种可能的状态。
作者选用±1作为这两种状态,好处就是,它代表了数字系统中的两种符号、功能更加完备,同时可以通过Sign(·)函数方便地获得。
作者的1bit模型结构是通过把FP16模型的所有线性层(嵌入层和lm_head除外)替换为1bit线性层实现的。
这里的1bit线性层除通过Sign(·)函数获得的1bit权重之外,还包括另外两个关键组件—FP16精度的值向量。
△FP16线性层与OneBit线性层的对比
这种设计不仅保持了原始权重矩阵的高秩,而且通过值向量提供了必要的浮点精度,对保证稳定且高质量的学习过程很有意义。
从上图可以看出,只有值向量g和h保持FP16格式,而权重矩阵则全部由±1组成。
作者通过一个例子可以一观OneBit的压缩能力。
假设压缩一个40964096的FP16线性层,OneBit需要一个40964096的1bit矩阵和两个4096*1的FP16值向量。
这里面总的位数为16,908,288,总的参数个数为16,785,408,平均每个参数占用仅仅约1.0073 bit。
这样的压缩幅度是空前的,可以说是真正的1bit LLM。
2、参数初始化和迁移学习
为了利用充分训练好的原模型更好地初始化量化后的模型,作者提出一种新的参数矩阵分解方法,称为“值-符号独立的矩阵分解(SVID)”。
这一矩阵分解方法把符号和绝对值分开,并把绝对值进行秩-1近似,其逼近原矩阵参数的方式可以表示成:
秩-1近似可以透過常用矩陣分解方法實現,例如奇異值分解(SVD)和非負矩陣分解(NMF)。
作者在數學上給出,這種SVID方法可以透過交換運算次序來和1bit模型框架相匹配,進而實現參數初始化。
此外,符號矩陣在分解過程中對近似原矩陣的貢獻也被證明,詳見論文。
作者認為,解決大模型超低位寬量化的有效途徑可能是量化感知訓練QAT。
因此,在SVID給出量化模型的參數起點後,作者把原模型當作教師模型並透過知識蒸餾從中學習。
具體而言,學生模型主要接受教師模式的logits和hidden state的指導。
訓練時,值向量和參數矩陣的值會被更新,而在部署時,則可以直接使用量化後的1bit參數矩陣來計算。
模型越大,效果越好
作者選擇的基線是FP16 Transformer、GPTQ、LLM-QAT和OmniQuant。
後三個都屬於量化領域中經典的強基線,特別是OmniQuant是自作者之前最強的2bit量化方法。
由於目前還沒有1bit權重量化的研究,作者只對OneBit框架使用1bit權重量化,而對其他方法採取2bit量化設定。
對於蒸餾數據,作者仿照LLM-QAT利用教師模型自採樣的方式產生數據。
作者從1.3B到13B不同大小、OPT和LLaMA-1/2不同系列的模型來證明OneBit的有效性。在評估指標上,使用驗證集的困惑度和常識推理的Zero-shot準確度。詳情見論文。
上表展示了OneBit比起其他方法在1bit量化時的優勢。 值得注意的是,模型越大時,OneBit效果往往越好。
隨著模型規模增加,OneBit量化模型降低的困惑度比FP16模型降低的困惑度要多。
以下是幾個不同小模型的常識推理、世界知識和空間佔用情況:
#作者也比較了幾種不同類型小模型的大小和實際能力。
作者發現,儘管OneBit-7B平均位寬最小、佔用的空間最小、訓練的步數也相對少,但它在常識推理能力上不遜於其他模型。
同時作者也發現,OneBit-7B模型在社會科學領域出現較嚴重的知識遺忘。
△FP16線性層與OneBit線性層的對比一個OneBit-7B指令微調後的文本生成範例
上圖也展示了一個OneBit- 7B指令微調後的文本生成範例。可見,OneBit-7B有效地受到了SFT階段的能力增益,可以比較流暢地生成文本,儘管總參數只有1.3GB(與FP16的0.6B模型相當)。總的來說,OneBit-7B展示了其實際應用價值。
分析與討論
作者展示了OneBit對不同規模LLaMA模型的壓縮比,可以看出,OneBit對模型的壓縮比均超過驚人的90%。
特別是,隨著模型增加,OneBit的壓縮比越高。
這顯示出作者方法在更大模型上的優勢:以更高的壓縮比獲得更大的邊際收益(困惑度)。此外,作者的方法在大小和性能之間做到了很好的權衡。
1bit量化模型在計算上有優勢,意義十分重大。參數的純二進位表示,不但可以節省大量的空間,還能降低矩陣乘法對硬體的需求。
高精度模型中矩陣乘法的元素相乘可以被變成高效率的位元運算,只需位元賦值和加法就可以完成矩陣乘積,非常有應用前景。
此外,作者的方法在訓練過程中保持了出色的穩定學習能力。
事實上,二值網路訓練的不穩定問題、對超參數的敏感度和收斂困難一直受到研究人員關注。
作者分析了高精度值向量在促進模型穩定收斂過程中的重要意義。
有前人工作提出過1bit模型架構並用於從頭訓練模型(如BitNet[1]),但它對超參數敏感且難以從充分訓練的高精度模型中遷移學習。作者也嘗試了BitNet在知識蒸餾的表現,發現其訓練還不夠穩定。
總結
作者提出了一個用於1bit權重量化的模型結構和對應的參數初始化方法。
在各種大小和系列的模型上進行的廣泛實驗表明,OneBit在代表性的強基線上具有明顯的優勢,並實現了模型大小與性能之間的良好折中。
此外,作者進一步分析了這種極低位元量化模型的能力和前景,並為未來的研究提供了指導。
論文網址: https://arxiv.org/pdf/2402.11295.pdf
以上是讓大模型「瘦身」90%!清華&哈工大提出極限壓縮方案:1bit量化,能力同時保留83%的詳細內容。更多資訊請關注PHP中文網其他相關文章!

利用“設備” AI的力量:建立個人聊天機器人CLI 在最近的過去,個人AI助手的概念似乎是科幻小說。 想像一下科技愛好者亞歷克斯(Alex)夢見一個聰明的本地AI同伴 - 不依賴

他們的首屆AI4MH發射於2025年4月15日舉行,著名的精神科醫生兼神經科學家湯姆·因斯爾(Tom Insel)博士曾擔任開幕式演講者。 Insel博士因其在心理健康研究和技術方面的傑出工作而聞名

恩格伯特說:“我們要確保WNBA仍然是每個人,球員,粉絲和公司合作夥伴,感到安全,重視和授權的空間。” anno

介紹 Python擅長使用編程語言,尤其是在數據科學和生成AI中。 在處理大型數據集時,有效的數據操作(存儲,管理和訪問)至關重要。 我們以前涵蓋了數字和ST

潛水之前,一個重要的警告:AI性能是非確定性的,並且特定於高度用法。簡而言之,您的里程可能會有所不同。不要將此文章(或任何其他)文章作為最後一句話 - 目的是在您自己的情況下測試這些模型

建立杰出的AI/ML投資組合:初學者和專業人士指南 創建引人注目的投資組合對於確保在人工智能(AI)和機器學習(ML)中的角色至關重要。 本指南為建立投資組合提供了建議

結果?倦怠,效率低下以及檢測和作用之間的差距擴大。這一切都不應該令任何從事網絡安全工作的人感到震驚。 不過,代理AI的承諾已成為一個潛在的轉折點。這個新課

直接影響與長期夥伴關係? 兩週前,Openai提出了強大的短期優惠,在2025年5月底之前授予美國和加拿大大學生免費訪問Chatgpt Plus。此工具包括GPT-4O,A A A A A


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

SublimeText3漢化版
中文版,非常好用

MinGW - Minimalist GNU for Windows
這個專案正在遷移到osdn.net/projects/mingw的過程中,你可以繼續在那裡關注我們。 MinGW:GNU編譯器集合(GCC)的本機Windows移植版本,可自由分發的導入函式庫和用於建置本機Windows應用程式的頭檔;包括對MSVC執行時間的擴展,以支援C99功能。 MinGW的所有軟體都可以在64位元Windows平台上運作。

Dreamweaver CS6
視覺化網頁開發工具

mPDF
mPDF是一個PHP庫,可以從UTF-8編碼的HTML產生PDF檔案。原作者Ian Back編寫mPDF以從他的網站上「即時」輸出PDF文件,並處理不同的語言。與原始腳本如HTML2FPDF相比,它的速度較慢,並且在使用Unicode字體時產生的檔案較大,但支援CSS樣式等,並進行了大量增強。支援幾乎所有語言,包括RTL(阿拉伯語和希伯來語)和CJK(中日韓)。支援嵌套的區塊級元素(如P、DIV),

禪工作室 13.0.1
強大的PHP整合開發環境