首頁  >  文章  >  科技週邊  >  人工智慧熱潮導致算力緊張,微軟推新伺服器租賃計劃

人工智慧熱潮導致算力緊張,微軟推新伺服器租賃計劃

WBOY
WBOY轉載
2023-04-13 14:49:031051瀏覽

ChatGPT持續火爆導致晶片短缺:沒有足夠的運算能力來處理ChatGPT的運算需求,這已經使OpenAI的伺服器過載。上一次大規模晶片短缺還是因為為了虛擬貨幣瘋狂挖礦導致的。不過隨著對生成式人工智慧需求不斷增加,這次算力緊張的情況可能會持續相當一段時間。

人工智慧熱潮導致算力緊張,微軟推新伺服器租賃計劃

微軟希望透過名為ND H100 v5的新虛擬機產品來填補這一空白,其中包括大批英偉達(Nvidia)代號為Hopper的最新H100 GPU,,用於生成式人工智慧應用。

其思路是為研究生成式人工智慧的公司提供更高的運算速度,這些公司能夠更深入地挖掘數據,建立關係、推理並預測答案。生成式人工智慧尚處於早期階段,但ChatGPT等應用程式大受歡迎的現像已證明該技術的巨大潛力。

但這項技術也需要龐大的運算能力,微軟正在將其引入Azure雲端服務。

虛擬機產品可根據生成式人工智慧應用程式的大小進行調整,並可擴展到數千個H100 GPU,GPU之間透過晶片製造商的Quantum-2 InfiniBand技術互連。

Azure上配備H100虛擬機器的定價並沒有立即公佈。虛擬機器的價格因配置而異,一台具有96個CPU核心、900GB儲存和8個A100 GPU的滿載A100虛擬機器每月的成本接近20000美元。

去年ChatGPT剛推出時,英偉達GPU面臨嚴峻考驗。其計算由OpenAI超級電腦承擔,該電腦由Nvidia A100 GPU建構。

但伺服器很快就被ChatGPT瘋狂成長的需求淹沒了,用戶抱怨伺服器無法及時回應和處理查詢任務。

H100可以縮小生成式人工智慧所需的速度差距,生成式人工智慧已經被用於醫療保健、機器人和其他產業。各開發公司也在尋求填補最後一公里的空白,並部署一個介面,使人工智慧簡單可用,就像ChatGPT一樣。

英偉達和微軟已經在用H100製造一台人工智慧超級電腦。 GPU的設計使其能夠最好地與CUDA編碼的應用程式一起使用(CUDA是英偉達的平行程式框架)。產品還包括Triton推理伺服器,它將有助於在其GPU環境中部署人工智慧模型GPT-3。

微軟開始在其產品中全面嵌入人工智慧:在Bing搜尋引擎中實現了GPT-3.5的定製版本,這是ChatGPT背後的大型語言模型。微軟正在對Bing AI採取DevOps(開發營運)風格的迭代方法,在這種方法中,應用程式透過了解使用者使用模型時的資訊能夠快速更新。 Microsoft 365 Copilot則是嵌入了人工智慧的原OFFICE套件。 WORD、PPT和EXCEL這些我們熟悉的軟體將以全新能力改變傳統工作方法。而這一切的背後,都離不開算力的支持。

新的Azure虛擬機器基本配置可以透過英偉達專有的NVLink 4.0互連將八個H100 Tensor Core GPU互連。此配置可以透過Quantum-2互連擴展到更多的GPU。伺服器具有Intel的第4代Xeon(Sapphire Rapids)可擴充處理器,透過PCIe Gen5與GPU進行資料傳輸。

以上是人工智慧熱潮導致算力緊張,微軟推新伺服器租賃計劃的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除