Stable Diffusion (SD)是當前最熱門的文字到圖像(text to image)生成擴散模型。儘管其強大的圖像生成能力令人震撼,一個明顯的不足是需要的計算資源巨大,推理速度很慢:以SD-v1.5 為例,即使用半精度存儲,其模型大小也有1.7GB,近10 億參數,端上推理時間往往接近2min。
為了解決推理速度問題,學術界與業界已經開始對SD 加速的研究,主要集中在兩條路線:(1)減少推理步數,這條路線又可以分為兩條子路線,一是透過提出更好的noise scheduler 來減少步數,代表作是DDIM [1],PNDM [2],DPM [3] 等;二是透過漸進式蒸餾(Progressive Distillation)來減少步數,代表作是Progressive Distillation [4] 和w-conditioning [5] 等。 (2)工程技巧優化,代表作是Qualcomm 透過int8 量化全端優化實現SD-v1.5 在安卓手機上15s 出圖[6],Google 透過端上GPU 優化將SD-v1.4 在三星手機上加速到12s [7]。
儘管這些工作取得了長足的進步,但仍然不夠快。
近日,Snap 研究院推出最新高效能Stable Diffusion 模型,透過網路結構、訓練流程、損失函數全方位進行最佳化,在iPhone 14 Pro 上實現2 秒出圖(512x512),且比SD-v1.5 取得更好的CLIP score。這是目前已知最快的端上 Stable Diffusion 模型!
- #論文網址:https://arxiv.org/pdf/2306.00980.pdf
- Webpage: https://snap-research.github.io/SnapFusion
核心方法
Stable Diffusion 模型分為三個部分:VAE encoder/decoder, text encoder, UNet,其中UNet 無論是參數量還是計算量,都佔絕對的大頭,因此SnapFusion 主要是對UNet 進行優化。具體分為兩部分:(1)UNet 結構上的最佳化:透過分析原有UNet 的速度瓶頸,本文提出一套UNet 結構自動評估、演化流程,得到了更為高效的UNet 結構(稱為Efficient UNet) 。 (2)推理步數上的最佳化:眾所周知,擴散模型在推理時是一個迭代的去噪過程,迭代的步數越多,生成圖片的品質越高,但時間代價也隨著迭代步數線性增加。為了減少步數並維持圖片質量,我們提出一種 CFG-aware 蒸餾損失函數,在訓練過程中明確考慮 CFG (Classifier-Free Guidance)的作用,這一損失函數被證明是提升 CLIP score 的關鍵!
下表是 SD-v1.5 與 SnapFusion 模型的概況對比,可見速度提升來自 UNet 和 VAE decoder 兩個部分,UNet 部分是大頭。 UNet 部分的改進有兩方面,一是單次latency 下降(1700ms -> 230ms,7.4x 加速),這是透過提出的Efficient UNet 結構得到的;二是Inference steps 降低(50 -> 8,6.25 x 加速),這是透過提出的CFG-aware Distillation 得到的。 VAE decoder 的加速是透過結構化剪枝來實現。
以下著重於 Efficient UNet 的設計和 CFG-aware Distillation 損失函數的設計。
(1)Efficient UNet
我們透過分析UNet 中的Cross-Attention 和ResNet 模組,定位速度瓶頸在於Cross-Attention 模組(尤其是第一個Downsample 階段的Cross-Attention),如下圖所示。這個問題的根源是因為 attention 模組的複雜度跟特徵圖的 spatial size 成平方關係,在第一個 Downsample 階段,特徵圖的 spatial size 仍然較大,導致計算複雜度高。
為了優化UNet 結構,我們提出一套UNet 結構自動評估、進化流程:先對UNet 進行穩健性訓練(Robust Training),在訓練中隨機drop 一些模組,以此來測試出每個模組對效能的真實影響,從而建立一個「對CLIP score 的影響vs. latency」 的查找表;然後根據該查找表,優先去除對CLIP score 影響不大同時又很耗時的模組。這套流程是在線上自動進行,完成之後,我們就得到了一個全新的 UNet 架構,稱為 Efficient UNet。相較於原版 UNet,實現 7.4x 加速且效能不降。
(2)CFG-aware Step Distillation
CFG(Classifier-Free Guidance)是SD 推理階段的必備技巧,可以大幅提升圖片質量,非常關鍵!儘管已有工作對擴散模型進行步數蒸餾(Step Distillation)來加速 [4],但是它們沒有在蒸餾訓練中把 CFG 納入優化目標,也就是說,蒸餾損失函數並不知道後面會用到 CFG。這一點根據我們的觀察,在步數少的時候會嚴重影響 CLIP score。
為了解決這個問題,我們提出在計算蒸餾損失函數之前,先讓teacher 和student 模型都進行CFG,這樣損失函數是在經過CFG 之後的特徵上計算,從而明確地考慮了不同CFG scale 的影響。實驗中我們發現,完全使用 CFG-aware Distillation 儘管可以提高 CLIP score, 但 FID 也明顯變差。我們進而提出了一個隨機採樣方案來混合原來的 Step Distillation 損失函數和 CFG-aware Distillation 損失函數,實現了二者的優勢共存,既顯著提高了 CLIP score,同時 FID 也沒有變差。此步驟,實現進一步推理階段加速 6.25 倍,實現總加速約 46 倍。
除了以上兩個主要貢獻,文中還有對 VAE decoder 的剪枝加速以及蒸餾流程上的精心設計,具體內容請參考論文。
實驗結果
SnapFusion 對標SD-v1.5 text to image 功能,目標是實現推理時間大幅縮減並維持影像品質不降,最能說明這一點的是下圖:
該圖是在MS COCO'14 驗證集上隨機選取30K caption-image pairs 測算CLIP score 和FID。 CLIP score 衡量圖片與文字的語意吻合程度,越大越好;FID 衡量生成圖片與真實圖片之間的分佈距離(一般被認為是產生圖片多樣性的測量),越小越好。圖中不同的點是使用不同的 CFG scale 來獲得,每一個 CFG scale 對應一個資料點。從圖中可見,我們的方法(紅線)可以達到跟 SD-v1.5(藍線)相同的最低 FID,同時,我們方法的 CLIP score 更好。值得注意的是,SD-v1.5 需要 1.4min 產生一張圖片,而 SnapFusion 僅需要 1.84s,這也是目前我們已知最快的行動端 Stable Diffusion 模型!
以下是一些SnapFusion 產生的樣本:
更多樣本請參考文章附錄。
除了這些主要結果,文中也展示了許多燒蝕分析(Ablation Study)實驗,希望能為高效SD 模型的研發提供參考經驗:
#(1)之前Step Distillation 的工作通常採用漸進式方案[4, 5],但我們發現,在SD 模型上漸進式蒸餾並沒有比直接蒸餾更有優勢,且過程繁瑣,因此我們在文中採用的是直接蒸餾方案。
(2)CFG 雖然可以大幅提升影像質量,但代價是推理成本翻倍。今年CVPR'23 Award Candidate 的On Distillation 一文[5] 提出w-conditioning,將CFG 參數作為UNet 的輸入進行蒸餾(得到的模型叫做w-conditioned UNet),從而在推理時省卻CFG 這一步驟,實現推理成本減半。但我們發現,這樣做其實會造成圖片品質下降,CLIP score 降低(如下圖中,四條 w-conditioned 線 CLIP score 均未超過 0.30, 劣於 SD-v1.5)。而我們的方法則可以減少步數,同時將 CLIP score 提高,得益於所提出的 CFG-aware 蒸餾損失函數!尤其值得主要的是,下圖中綠線(w-conditioned, 16 steps)與橙線(Ours,8 steps)的推理代價是一樣的,但明顯橙線更優,說明我們的技術路線比w- conditioning [5] 在蒸餾CFG guided SD 模型上更為有效。
(3)既有Step Distillation 的工作[4, 5] 沒有將原有的損失函數和蒸餾損失函數加在一起,熟悉影像分類知識蒸餾的朋友應該知道,這種設計直覺上來說是欠優的。於是我們提出把原有的損失函數加入訓練中,如下圖所示,確實有效(小幅降低 FID)。
總結與未來工作
本文提出SnapFusion,一個行動裝置高效能Stable Diffusion 模型。 SnapFusion 有兩點核心貢獻:(1)透過對現有UNet 的逐層分析,定位速度瓶頸,提出一種新的高效UNet 結構(Efficient UNet),可以等效替換原Stable Diffusion 中的UNet,實現7.4 x 加速;(2)對推理階段的迭代步數進行最佳化,提出一種全新的步數蒸餾方案(CFG-aware Step Distillation),減少步數的同時可顯著提升CLIP score,實現6.25x 加速。總體來說,SnapFusion 在 iPhone 14 Pro 上實現 2 秒內出圖,這是目前已知最快的行動端 Stable Diffusion 車型。
未來工作:
#1.SD 模型在多種影像產生場景中都可以使用,本文囿於時間,目前只關注了text to image 這個核心任務,後期將跟進其他任務(如inpainting,ControlNet 等等)。
2. 本文主要關注速度上的提升,並未對模型儲存進行最佳化。我們相信所提出的 Efficient UNet 仍然具備壓縮的空間,結合其他的高性能優化方法(如剪枝,量化),有望縮小存儲,並將時間降低到 1 秒以內,離端上實時 SD 更進一步。
以上是iPhone兩秒出圖,目前已知最快的行動端Stable Diffusion模型來了的詳細內容。更多資訊請關注PHP中文網其他相關文章!

由於AI的快速整合而加劇了工作場所的迅速危機危機,要求戰略轉變以外的增量調整。 WTI的調查結果強調了這一點:68%的員工在工作量上掙扎,導致BUR

約翰·塞爾(John Searle)的中國房間論點:對AI理解的挑戰 Searle的思想實驗直接質疑人工智能是否可以真正理解語言或具有真正意識。 想像一個人,對下巴一無所知

與西方同行相比,中國的科技巨頭在AI開發方面的課程不同。 他們不專注於技術基準和API集成,而是優先考慮“屏幕感知” AI助手 - AI T

MCP:賦能AI系統訪問外部工具 模型上下文協議(MCP)讓AI應用能夠通過標準化接口與外部工具和數據源交互。由Anthropic開發並得到主要AI提供商的支持,MCP允許語言模型和智能體發現可用工具並使用合適的參數調用它們。然而,實施MCP服務器存在一些挑戰,包括環境衝突、安全漏洞以及跨平台行為不一致。 Forbes文章《Anthropic的模型上下文協議是AI智能體發展的一大步》作者:Janakiram MSVDocker通過容器化解決了這些問題。基於Docker Hub基礎設施構建的Doc

有遠見的企業家採用的六種策略,他們利用尖端技術和精明的商業敏銳度來創造高利潤的可擴展公司,同時保持控制。本指南是針對有抱負的企業家的,旨在建立一個

Google Photos的新型Ultra HDR工具:改變圖像增強的遊戲規則 Google Photos推出了一個功能強大的Ultra HDR轉換工具,將標準照片轉換為充滿活力的高動態範圍圖像。這種增強功能受益於攝影師

技術架構解決了新興的身份驗證挑戰 代理身份集線器解決了許多組織僅在開始AI代理實施後發現的問題,即傳統身份驗證方法不是為機器設計的

(注意:Google是我公司的諮詢客戶,Moor Insights&Strateging。) AI:從實驗到企業基金會 Google Cloud Next 2025展示了AI從實驗功能到企業技術的核心組成部分的演變,


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

SecLists
SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

SublimeText3 Linux新版
SublimeText3 Linux最新版

DVWA
Damn Vulnerable Web App (DVWA) 是一個PHP/MySQL的Web應用程序,非常容易受到攻擊。它的主要目標是成為安全專業人員在合法環境中測試自己的技能和工具的輔助工具,幫助Web開發人員更好地理解保護網路應用程式的過程,並幫助教師/學生在課堂環境中教授/學習Web應用程式安全性。 DVWA的目標是透過簡單直接的介面練習一些最常見的Web漏洞,難度各不相同。請注意,該軟體中

ZendStudio 13.5.1 Mac
強大的PHP整合開發環境

Safe Exam Browser
Safe Exam Browser是一個安全的瀏覽器環境,安全地進行線上考試。該軟體將任何電腦變成一個安全的工作站。它控制對任何實用工具的訪問,並防止學生使用未經授權的資源。