2023年,是AI人工智慧技術全面爆紅的一年。
以ChatGPT、GPT-4、文心一言為代表的AIGC大模型,集文本撰寫、代碼開發、詩詞創作等功能於一體,展現出了超強的內容生產能力,帶給人們極大震撼。
作為一個通訊老人,除了AIGC大模型本身之外,小棗君更加關注的,是模型背後的通訊技術。到底是一張怎樣的強大網絡,在支持著AIGC的運作?此外,AI浪潮的全面來襲,將對傳統網路帶來什麼樣的變革?
眾所周知,數據、演算法和算力,是人工智慧發展的三大基本要素。
前面提到的幾個AIGC大模型,之所以那麼厲害,不僅是因為它們背後有大量的資料投餵,也因為演算法在不斷進化升級。更重要的是,人類的算力規模,已經發展到一定程度了。強大的算力基礎設施,完全能夠支撐AIGC的運算需求。
AIGC發展到現在,訓練模型參數從千億級飆升到了兆級。為了完成這麼大規模的訓練,底層支撐的GPU數量,也達到了萬卡等級規模。
以ChatGPT為例,他們使用了微軟的超算基礎設施進行訓練,據說動用了10000塊V100 GPU,組成了一個高頻寬叢集。一次訓練,需要消耗算力約3640 PF-days(即每秒1千萬億次計算,運行3640天)。
一塊V100的FP32算力,是0.014 PFLOPS(算力單位,等於每秒1千萬億次的浮點運算)。一萬塊V100,那就是140 PFLOPS。
也就是說,如果GPU的使用率是100%,那麼,完成一次訓練,就要3640÷140=26(天)。
GPU的利用率是不可能達到100%,如果以33%算(OpenAI提供的假設利用率),那就是26再翻三倍,等於78天。
可以看出,GPU的算力、GPU的使用率,對大模型的訓練有很大影響。
那麼問題來了,影響GPU利用率的最大因素,是什麼呢?
答案是:網路。
一萬甚至幾萬塊的GPU,作為計算集群,與儲存集群進行資料交互,需要極大的頻寬。此外,GPU叢集進行訓練運算時,都不是獨立的,而是混合並行。 GPU之間,有大量的資料交換,也需要極大的頻寬。
如果網路不給力,數據傳輸慢,GPU就要等待數據,導致利用率下降。利用率下降,訓練時間就會增加,成本也會增加,使用者體驗會變差。
業界曾經做過一個模型,計算出網路頻寬吞吐能力、通訊時延與GPU利用率之間的關係,如下圖所示:
大家可以看到,網路吞吐能力越強,GPU利用率越高;通訊動態時延越大,GPU利用率越低。
一句話,沒有好網絡,別玩大模型。
為了因應AI叢集運算對網路的調整,業界也是想了不少辦法的。
傳統的因應策略,主要是三種:Infiniband、RDMA、框式交換器。我們分別來簡單了解一下。
Infiniband網路
Infiniband(直譯為「無限頻寬」技術,縮寫為IB)組網,搞數據通訊的童鞋應該不會陌生。
這是目前組成高效能網路的最佳途徑,頻寬極高,可實現無擁塞和低時延。 ChatGPT、GPT-4所使用的,據說就是Infiniband組網。
如果說Infiniband網路有什麼缺點的話,那就是一個字-貴。相較於傳統乙太網路的組網,Infiniband組網的成本會貴好幾倍。這項技術比較封閉,業界目前成熟的供應商只有1家,用戶沒什麼選擇權。
#RDMA的全名為Remote Direct Memory Access(遠端直接數據訪問)。它是一種新型的通訊機制。在RDMA方案裡,應用程式的數據,不再經過CPU和複雜的作業系統,而是直接和網路卡通信,不僅大幅提升了吞吐能力,也降低了延遲。
RDMA最早提出時,是承載在InfiniBand網路中的。現在,RDMA逐漸移植到了乙太網路上。
目前,高效能網路的主流網路方案,是基於RoCE v2(RDMA over Converged Ethernet,基於融合乙太網路的RDMA)協定來組成支援RDMA的網絡。
這個方案有兩個重要的搭配技術,分別是PFC(Priority Flow Control,基於優先權的流量控制)和ECN(Explicit Congestion Notification,明確擁塞通知)。它們是為了避免連結中的擁塞而產生的技術,但是,頻繁被觸發,反而會導致發送端暫停發送,或降速發送,進而拉低通訊頻寬。 (下文也會提到它們)
單POD組網
#多層POD群組網,規模可以變得更大。
在多層POD網路中,NCF裝置要犧牲一半的SerDes,用來連接第二層的NCF。所以,此時單POD採用48台NCP作為接入,下行共18個400G接口。
多POD群組網
單一POD內,可以支撐864個400G介面(48×18)。透過橫向增加POD(8個),實現規模擴容,整體最大可支撐6912個400G網路連接埠(864×8)。
NCP上行40個200G,接POD內40台NCF。 POD內NCF採用48個200G接口,48個200G接口分為12個一組上行到第二級的NCF。第二級NCF採用40個平面(Plane),每個平面4台NCF-P,分別對應在POD內的40台NCF。
整個網路的POD內實現了1.1:1的超速比(北向頻寬大於南向頻寬),而在POD和二級NCF之間實現了1: 1的收斂比(南向頻寬/北向頻寬)。
站在規模和頻寬吞吐的角度,DDC已經可以滿足AI大模型訓練對於網路的需求。
然而,網路的運作過程是複雜的,DDC也需要在時延對抗、負載平衡、管理效率等方面有所提升。
網路在運作的過程中,可能會出現突發流量,造成接收端來不及處理,造成壅塞和丟包。
為了回應這種情況,DDC採取了基於VOQ Cell的轉送機制。
#從網路接收傳送端到封包之後,會分類到VOQ(虛擬輸出隊列)中儲存。
在傳送封包前,NCP會先傳送Credit封包,確定接收端是否有足夠的快取空間處理這些封包。
如果接收端OK,則將封包分片成Cells(封包的小切片),並且動態負載平衡到中間的Fabric節點(NCF)。
如果接收端暫時沒能力處理封包,封包會在傳送端的VOQ中暫存,並不會直接轉送到接收端。
在接收端,這些Cells會進行重組和存儲,進而轉送到網路中。
切片後的Cells,將採用輪詢的機制傳送。它能夠充分利用到每一條上行鏈路,確保所有上行鏈路的傳輸資料量近似相等。
#輪詢機制
#這樣的機制,充分利用了緩存,可以大幅減少丟包,甚至不會產生丟包狀況。資料重傳減少了,整體通訊延遲更穩定更低,從而可以提高頻寬利用率,進而提升業務吞吐效率。
#前面我們提到,RDMA無損網路中引入了PFC(基於優先順序的流量控制)技術,進行流量控制。
簡單來說,PFC就是在一條乙太網路鏈路上創建8 個虛擬通道,並為每個虛擬通道指定對應優先級,允許單獨暫停和重啟其中任一虛擬通道,同時允許其它虛擬通道的流量無中斷通過。
#PFC可以實現基於佇列的流量控制,但是,它也存在一個問題,那就是死鎖。
所謂死鎖,就是多個交換器之間,因為環路等原因,同時出現了擁塞(各自連接埠快取消耗超過了閾值),又都在等待對方釋放資源,因而導致的「僵持狀態」(所有交換器的資料流永久堵塞)。
DDC的網路下,就不存在PFC的死鎖問題。因為,站在整個網路的角度,所有NCP和NCF可以看成一台設備。對AI伺服器來說,整個DDC,就是一個交換機,不存在多級交換器。所以,就不存在死鎖。
#另外,根據DDC的資料轉送機制,可在介面處部署ECN(顯式擁塞通知)。
ECN機制下,網路設備一旦偵測到RoCE v2流量出現了擁塞(內部的Credit和快取機制無法支撐突發流量),就會傳送CNP(Congestion Notification Packets,壅塞通知訊息),要求降速。
#最後再來看看管理控制平面。
前面我們提到,在DDC架構中,框式裝置的管理功能變成了NCC(網路雲端控制器)。 NCC非常重要,如果採用單點式的方式,萬一出現問題,就會導致整網故障。
為了避免這樣的問題,DDC可以取消NCC的集中控制面,建構分散式OS(作業系統)。
基於分散式OS,可以基於SDN維運控制器,透過標準介面(Netconf、GRPC等)配置管理設備。這樣的話,每台NCP和NCF獨立管理,有獨立的控制面和管理面,大大提升了系統的可靠性,也更方便部署。
RG-X56-96F1交換器的高度為4U,提供96個200G的Fabric內聯口,8個風扇和4個電源供應器。
據悉,銳捷網路還會持續研發、推出400G埠形態的產品。
AIGC的崛起,已經掀起了互聯網產業的新一輪科技革命。
我們可以看到,越來越多的企業,正在加入這個賽道,參與競爭。這意味著,網路基礎設施的升級,迫在眉睫。
DDC的出現,將大幅提升網路基礎設施的能力,不僅能有效應對AI革命對網路基礎設施的挑戰,更將協助整個社會的數位轉型,加速人類數智時代的全面到來。
以上是適合驅動AIGC的網路的特徵是什麼?的詳細內容。更多資訊請關注PHP中文網其他相關文章!