3 月 12 日消息,根據Google官博消息,機器學習 ML 開發和部署如今受到了分散和孤立的基礎設施的影響,這些基礎設施可能因框架、硬體和用例而異。這種碎片化限制了開發者的速度,並對模型的可移植性、效率和生產化造成了障礙。
為此,阿里巴巴、亞馬遜AWS、AMD、蘋果、Arm、Cerebras、Google、Graphcore、Hugging Face、英特爾、Meta 和英偉達12 家科技巨頭宣布,聯合推出OpenXLA 計畫(包括XLA、StableHLO和IREE 儲存庫),使開發者能夠編譯和優化來自所有領先ML 框架的模型,以便在各種硬體上進行高效培訓和服務。
據介紹,OpenXLA 專案提供了一個最先進的 ML 編譯器,可以在複雜的 ML 基礎架構中擴充。這款通用的編譯器可以將不同的硬體設備橋接到當今使用的多個框架(例如 TensorFlow、PyTorch),透過 OpenXLA 來幫助加速 AI 的開發和交付來實現 AI 的實際潛力。
Google則聲稱,使用 OpenXLA 的開發者將看到訓練時間、吞吐量、服務延遲以及最終上市時間和計算成本的顯著改進。
OpenXLA 專案目前已上傳至 GitHub,IT之家附存取連結連結。
以上是為解決機器學習分散問題,阿里、蘋果、谷歌等 12 家巨頭推出 OpenXLA的詳細內容。更多資訊請關注PHP中文網其他相關文章!