DPU 發展有望進入快車道。 DPU(資料處理晶片 Data Process Unit)被認為是繼 CPU 和 GPU 之後的「第三顆主力晶片」。由於採用智慧網卡方案的逐步成熟,疊加全球通用伺服器出貨量的穩定成長、L3 以上等級智慧駕駛汽車的技術落地、工業控制領域的需求增加等原因,全球、國內DPU 產業都有望快速發展。
全球 DPU 市場高景氣延續,國內 DPU 市場加速追趕。根據賽迪顧問《中國DPU產業發展白皮書》,2020 年全球DPU 產業市場規模達30.5 億美元,預計2025 年全球DPU 產業市場規模將超過245.3 億美元,複合增速達51.73%。
2020 年中國 DPU 產業市場規模達 3.9 億元,預計到 2025 年中國 DPU 產業市場規模將超過 565.9 億元,複合增速達 170.6%。
DPU 產業鏈分析:
DPU 中游環節(DPU 晶片廠商):海外巨擘暫時領先,國產廠商蓄勢待發。根據頭豹研究院數據,2020 年國內 DPU 市場中,國際三大巨頭英偉達,博通,Intel 份額分別達到 55%、36%、9%。國內廠商中,華為,阿里,百度,騰訊也在近幾年針對自身伺服器進行自研與外購 DPU,針對的主要功能在於數據,儲存與安全方面。
DPU 上游環節:EDA、IP 等均為研發重要基礎。國內 EDA 市場長期由國際三大巨頭佔據,未來可望迎來突破。供需合力孕育 IP 核能產業,未來需求開啟新增通道。半導體國產化持續演進,國內 IP 供應商將佔據稀缺性價值高地,包括寒武紀、芯原股份等。
DPU 下游應用:多點開花,未來前景廣闊。 DPU 核心市場圍繞著資料中心展開,以伺服器為硬體載體,下游場景涵蓋雲端運算,高效能運算,網路安全,邊緣運算等多個領域。從我國範圍來看,高新技術、數位轉型及終端消費等多元算力需求場景不斷湧現,算力賦能效應凸顯。
ChatGPT 等 AI 技術發展大趨勢下,算力需求凸顯,DPU 預計將迎來黃金發展期,全球、國內 DPU 產業市場規模呈現逐年成長的趨勢,核心企業有望受益於產業發展趨勢。
DPU(資料處理晶片Data Process Unit)被認為是繼CPU 和GPU 之後的“第三顆主力晶片」。 DPU(Data Processing Unit)是新近發展起來的一種專用處理器。 2020 年 NVIDIA 公司發布的 DPU 產品策略中將其定位為資料中心繼CPU 和 GPU 之後的「第三顆主力晶片」。隨著晶片業製造製程的不斷精進,以及數位化技術如 AI 的發展,晶片產業不斷推陳出新。 DPU 作為新型晶片的一種,它的出現是異構運算的一個階段性標誌。
1、算力提升與資料增幅呈現剪刀差,DPU 需求凸顯
#DPU 是以資料處理為核心的專用資料處理單元,是對傳統運算資源的網路、安全性和儲存的卸載平台。傳統資料中心以 CPU 為主要資料處理單元,通常龐大的基礎架構的運作已佔據相當一部分 CPU 核,為資料處理任務帶來非常大的挑戰。
DPU 其實在業界已經孕育已久,從早期的網路協定處理卸載,到後續的網路、儲存、虛擬化卸載。
根據摩天輪數據,Amazon 的AWS 早在2013 年研發了Nitro 產品,將資料中心開銷(為虛機提供遠端資源、加密解密、故障追蹤、安全策略等服務程序)全部放到專用加速器上執行。 Nitro 架構採用輕量化Hypervisor 配合定制化的硬件,將虛擬機的計算(主要是CPU 和內存)和I/O(主要是網絡和存儲)子系統分離開來,通過PCIe 總線連接,節省了30%的CPU 資源。
2016-2017 年,阿里雲就提出 X-Dragon 系統架構,其核心是 MOC 卡,且有比較豐富的對外接口,也包括了運算資源、儲存資源和網路資源。 MOC 卡的核心 X-Dragon SOC,統一支援網絡,I/O、儲存和周邊的虛擬化,為虛擬機器、裸金屬、容器雲提供統一的資源池。
根據網易、芯東西數據,2019 年,美國一家新創公司 Fungible 推出產品 F1DPU,第一次提出了 DPU 的概念。 2020 年 10 月,英偉達將基於 Mellanox 方案的 Smart NIC 命名為 DPU,重新定義了 DPU 的概念。 2020 年,英偉達公司發布的 DPU 產品策略中將其定位為繼 CPU 和 GPU 之後資料中心的“第三顆主力晶片”,掀起了行業熱潮。
2、以降本增效為目標,DPU 直擊行業痛點
DPU 要解決的核心問題是基礎設施的“降本增效”,即將“CPU 處理效率低下、GPU處理不了」的負載卸載到專用DPU,提升整個運算系統的效率,降低整體系統的整體擁有成本(TCO)。
CPU 資源負載過大為產業痛點,智慧網路卡(Smart NIC)為 DPU 前身。在通訊領域,伴隨著 5G、雲端網融合時代的到來,以及虛擬交換等技術的引入,基於伺服器的網路資料平面的複雜性急劇增加。海量的資料搬運工作被CPU 承擔,導致網路介面頻寬急劇增加,CPU 資源負載過大,大大影響了CPU 將運算能力釋放到應用程式中,為了提高主機CPU 的處理效能,Smart NIC(智慧網卡)將部分CPU 的網路功能(如IP 分片、TCP 分段等)轉移到網卡硬體中,起到了加速運算的目的,其可視為DPU 的前身。新一代的DPU 的優點在於不僅可以作為運算的加速引擎,還具備控制平面的功能,可以更有效率的完成網路虛擬化、I/O 虛擬化、儲存虛擬化等任務,並徹底將CPU 的算力釋放給應用程式。
功能方面,DPU 具備整合基礎業務、網路資料加速、零信任保護、算存分離等多種功能。可有效解決當前 CPU 算力無法完全作用到應用程序,資料處理速度慢,授信導致的資料洩露,儲存方案相容性差等諸多問題。具體來說:
1.DPU 實現了業務與基礎架構的營運分離。 DPU 將基礎設施任務從 CPU 轉移至 DPU,釋放 CPU 的資源,使更多的伺服器 CPU 核可用於運行應用程序,完成業務計算,從而提高伺服器和資料中心的效率。
2.DPU 卸載網路數據,實現效能提升。 DPU 針對雲端原生環境進行了最佳化,提供資料中心級的軟體定義和硬體加速的網路、儲存、安全性和管理等服務。根據程式設計師客棧數據,紅帽Red Hat 的容器化雲平台即服務(PaaS)0penShift 上,借助DPU優化資料中心資源利用率,將網路相關的資料處理(如VxLan 和IPSec 等)卸載到DPU 加速執行,在25Gb/s 網路條件下,Open Shift 部署DPU 用來加速,可以只用1/3 的CPU 佔用率來達到25Gb/s 效能,而在100Gb/s 網路條件下,未部署DPU 的場景將達不到100Gb/s 網路線速,DPU 可以帶來10 倍的效能優勢。
3.DPU 可以提供零信任安全保護,零信任(Zero Trust)是一種以安全性為中心的模型,其基於以下思想︰企業不應對其內外的任何事物授予默認信任選項。零信任可以減少資料外洩、拒絕未經授權的訪問,因此在資料安全方面價值很大。
方式:DPU 透過將控制平面由主機下放到了 DPU,來為企業提供零信任保護,實現主機業務和控制平面的完全隔離,資料將無法進行穿透,並保證安全性。
DPU 的出現相當於為每個伺服器配備了一台“電腦前的電腦”,以提供獨立、安全的基礎設施服務,並與伺服器應用網域安全隔離。如果主機遭受入侵,安全控制代理與被入侵主機之間的 DPU 隔離層可防止攻擊擴散至整個資料中心。這樣 DPU就解決了企業不願意直接在運算平台上部署安全代理的情況。透過在完全隔離於應用程式域的DPU 上部署安全代理,企業不僅能獲得對應用程式工作負載的可見性,還能在其基礎架構中執行一致的安全性策略。
4.DPU 協助實現“算存分離”,BlueField SNAP 技術方案透過在伺服器系統的資料入口處引入運算資源,在DPU 上獨立實現面對應用需求的儲存方案,幫助儲存廠商在資料中心中低成本地靈活部署、升級進階儲存協議,而完全不需要對現有軟體堆疊進行任何更改。儲存廠商可以把自家團隊為各產業應用開發的開放系統的直連式儲存(DAS)、縱向擴充(Scale-up)、橫向擴充(Scale-out)、超融合架構(Hyperconverged)等儲存解決方案,零開銷地推廣到各應用領域的現有業務處理平台和資料中心基礎架構中,而所有的安全加密、資料壓縮、負載平衡等複雜又必須的功能則完全由DPU 透明地卸載。儲存產業的革新演算法和實現,可以在 DPU架構中,獨立於伺服器作業系統進行部署。 DPU 技術幫助儲存廠商實現真正的“算存分離”,完全發揮自家產品的技術優勢,打通最高效服務應用需求的通路。
3、依托智慧網卡化繭成蝶,FPGA 及混合架構路線為主流
Smart NIC 可以被看作DPU 的前身,包含基於多個CPU 核心的ASIC 和基於FPGA的智慧網卡等類型。隨著技術的發展,FPGA、ASIC 和 SoC 也在相互融合,它們之間的界線越來越模糊。例如,隨著FPGA 的發展,現在許多FPGA 內部整合了硬核,這種硬核就是傳統意義上的ASIC;從硬體可編程的角度來看,SoC 與FPGA 相反,它可以看作ASIC,這裡的ASIC 主要指硬體不可編程,而不是單指特定功能晶片。
NIC 代表網路介面卡。實際上,NIC 是一種插入伺服器或儲存盒以連接到乙太網路的 PCIe 卡。基於 DPU 的 Smart NIC 超越了簡單的連接,在基礎 NIC 的情況下,在 NIC 上實現了 CPU 必須執行的網路流量處理。
基於 DPU 的 Smart NIC 可以是基於 ASIC、FPGA 和 SoC 的。在這些不同的路線之間,在成本、程式設計的易用性和靈活性方面存在著各種權衡。 1)ASIC 具有成本效益,可能提供最佳性價比,但彈性有限。基於 ASIC 的 NIC,如 NVIDIA ConnectX-5,可以有相對簡單的可程式資料路徑。最終,該功能基於 ASIC 中定義的功能而受到限制,這可能會阻止支援某些工作負載。 2)相較之下,FPGA NIC(如 NVIDIA Innova-2 Flex)具有高度可程式性。只要有足夠的時間和精力,就可以在可用門的約束範圍內相對有效率地支援幾乎任何功能。然而,眾所周知,FPGA 程式設計困難且價格昂貴。 3)對於更複雜的用例,SOC(如 Mellanox BlueField DPU–可程式智慧網卡)提供了似乎是最好的基於 DPU 的 Smart NIC 實作。
4、DPU核心價值在於算力的卸載釋放與擴展,異質算力互聯推動DPU 多領域高速發展
1.算力卸載:即利用DPU 整合一部分資料處理的基本功能,然後將這些功能從CPU 中卸載下來,以提升CPU 針對部分應用的算力。 DPU 的部分價值體現在節省這部分算力的成本-DPU 本身的成本。因此 DPU 節省的算力越多,或 DPU 的成本越低,其帶來的價值越高。同時,由於DPU 的專用化,DPU 將部分涉及網路、儲存、安全性、管理相關的控制功能卸載之後,也將使得業務效能得以提升,因此DPU 的另一部分價值在於其可為業務節省的時間與使用體驗。
根據技術鄰數據,在大型資料中心的場景之中,DPU 的算力卸載功能可用於減少資料中心稅。由於在資料中心流量處理佔了計算 30%的資源,AWS 將這些尚未運行業務程序,先接入網路資料就要佔去的運算資源稱為「資料中心稅(Data center Tax)」。
在資料安全場景中,DPU 由於其獨立、安全的架構,可將部分加密、解密演算法固化在DPU硬體之中,以物理隔離的方式解決用戶在大量資料的資料安全問題,為外部網路業務租戶之間提供額外的安全層。
2. 根據中國信通院數據,算力釋放:算力釋放無需CPU 介入多次訪問內存和周邊,避免不必要的數據搬運,拷貝和上下文的切換,直接在網卡硬體上對數據完成處理並交付給最終消費數據的應用。傳統以 CPU 為中心的電腦體系結構在處理資料的過程中需要多次在內核和應用之間拷貝和存取數據,帶來的是極大的效能損耗。以資料為中心的DPU 架構則可以有效改善CPU 過度參與資料處理的問題,在資料處理的過程中不需要CPU 參與,直接將資料送達應用、相關的GPU或儲存設備,能夠有效避免效能瓶頸和由於CPU 負載過大而引發的異常。
DPU 架構和技術,使伺服器上運行的業務應用和作業系統內核,用簡單的本地儲存存取 API,就能實現對分散式、超融合或軟體定義儲存系統的高效透明存取。儲存廠商可以把為各產業應用開發的直連式儲存(DAS)、縱向擴充(Scale-up)、橫向擴充(Scale-out)、超融合架構(Hyperconverged)等儲存解決方案,零開銷地推廣到在各個應用領域的現有業務處理平台和資料中心基礎架構中,而所有的安全加密、資料壓縮、負載平衡等複雜又必須的功能則完全由DPU 透明地卸載。儲存產業的革新演算法和實現,可以在 DPU 架構中,獨立於伺服器作業系統進行部署。
DPU 技術幫助儲存廠商實現真正的“算存分離”,完全發揮自家產品的技術優勢,打通最高效服務應用需求的通路。
3.算力擴展:算力擴展即透過有效避免擁塞消除跨節點的網路通訊瓶頸,顯著降低分散式應用任務週期中的通訊耗時佔比,在大規模的叢集維度提升計算集群的整體算力。為了提升算力,業界在多條路徑上持續演進。通用 CPU 已難以繼續透過提升單核心單執行緒的效能和擴充片內多核心的方式來大幅提升算力。單核心晶片的製程提升至3nm 後,發展放緩;透過疊加多核心提升算力,隨著核數的增加,單位算力功耗也會顯著增長,當128 核增至256 核心時,總算力水平無法線性提升。在運算單元的製程演進已逼近基線,為了滿足大算力的需求,透過分散式系統,擴大運算集群規模,提升網路頻寬,降低網路延遲成為提升資料中心集群算力的主要手段。
5、DPU 帶動異構算力互聯,應用市場涵蓋高新技術產業多領域
異構算力互聯即為GPU、FPGA、ASIC 或其它加速卡與CPU 之間的數據連接。在 CPU 與加速卡之間,以及加速卡之間形成的晶片互聯技術被更多的採用,雖然 PCIe 有著非常通用的標準化設計,但頻寬有限將會產生瓶頸。以CXL 和Gen-Z 為代表的等下一代互聯技術取得快速發展,DPU 作為各種高速互聯協議融合的沙盒,最適合成為靈活的高速互聯載體,通過採用和擴展“以內存為中心”的互聯協議,將帶來在單一機箱外部擴展亞微秒延遲技術的機會,為下一代運算架構創新創造可能性。
伴隨資訊化建設與應用的而深入,市場持續高漲,DPU 產業在電信、互聯網、智慧駕駛、AI 伺服器及其他行業應用需求不斷增長。
1)在電信領域,三大業者皆積極佈局,推動產品驗證,並提出與產業鏈上的廠商推動 DPU 產業發展的合作意願。
2)在網路領域,隨著雲端運算、雲端原生等業務場景的發展需求,DPU 作為資料中心演進的焦點,受到各大雲端廠商的廣泛關注。頭部廠商紛紛投入資源嘗試自研或策略合作,降本增效,以達到效益的最大化。
3)在智慧駕駛領域,國內外晶片廠商加速佈局智慧駕駛,不斷提升研發效率,為 DPU 的市場發展奠定基礎。
4)針對 AI 伺服器及其他領域層面,在數位經濟和「東數西算」等政策影響下,中國AI伺服器、金融、終端政企及其他領域持續高速發展,對算力的需求不斷增加,傳統的技術已無法滿足當前業務的發展需求,DPU 能夠提供成熟的硬體加速方案,提升整個系統的效率,為AI 伺服器、金融及其他領域的發展提供技術支撐,全面推進DPU 產業未來的發展進程。
以上是DPU碰撞ChatGPT,算力效率會擦出哪些火花?的詳細內容。更多資訊請關注PHP中文網其他相關文章!