4月5日訊息,當地時間週二,Alphabet旗下的谷歌公開了一些新細節,展示了用於訓練人工智慧模型的超級計算機,稱其比英偉達A100晶片的系統更快、更節能。
Google公司設計了自己的客製化晶片,稱為Tensor Processing Unit(TPU),並將這些晶片應用於90%以上的人工智慧訓練工作。這個過程透過模型對資料進行訓練,以提高其在類似人類文字反應或生成圖像等任務中的實用性。
目前,GoogleTPU已經進入第四代。谷歌公司在周二發布了一篇科學論文,詳細介紹如何利用自己開發的客製化光開關將4000多個晶片連接成一個超級電腦。
對於構建AI超級電腦的公司來說,改善這些連接已經成為競爭的關鍵點,因為所謂的大規模語言模型正在不斷增大,已無法在單一晶片上存儲,而這些模型正驅動Google的Bard或OpenAI的ChatGPT等技術。
這類模型必須分佈在成千上萬的晶片之間,然後這些晶片要在數週或更長時間內協同工作來訓練模型。谷歌的PaLM模型,是迄今為止公開披露的最大語言模型,它透過分佈在兩台4000晶片的超級電腦上進行了50天的訓練。
Google表示,其超級電腦可以輕鬆地動態重新配置晶片之間的連接,有助於避免故障並進行效能最佳化。
「電路交換使得我們能夠輕鬆避開故障組件,」Google高級研究員Norm Jouppi和Google傑出工程師David Patterson在一篇關於該系統的部落格文章中寫道。 「這種靈活性甚至使我們能夠改變超級電腦互聯網的拓撲結構,以加速ML(機器學習)模型的性能。」
雖然谷歌直到現在才公開其超級電腦的詳細信息,但它自2020年以來就已經在俄克拉荷馬州梅斯縣的資料中心內運作。谷歌表示,新創公司Midjourney使用該系統來訓練其模型,該模型在輸入幾個單字的文字後可以產生新的圖像。
Google在論文中表示,與相同規模的系統相比,它的超級電腦比基於英偉達A100晶片的系統更快1.7倍,更節能1.9倍。據了解,A100晶片早於第四代TPU面市。
Google表示,它沒有將第四代TPU與英偉達當前旗艦H100晶片進行比較,因為H100是在Google這款晶片應用後上市的,並且採用了更新的技術。
Google暗示正在研發一款新的TPU,將與英偉達H100競爭,但沒有提供詳細資訊。 Jouppi告訴媒體,Google有「充足的未來晶片儲備」。
以上是谷歌公佈新一代AI超算,稱比英偉達A100更快、更節能的詳細內容。更多資訊請關注PHP中文網其他相關文章!