首頁 >科技週邊 >人工智慧 >以分散式網路串聯閒置GPU,這家創企稱可將AI模型訓練成本降低90%

以分散式網路串聯閒置GPU,這家創企稱可將AI模型訓練成本降低90%

WBOY
WBOY轉載
2023-06-15 14:18:36983瀏覽


以分散式網路串聯閒置GPU,這家創企稱可將AI模型訓練成本降低90%

Monster API利用採礦設備等GPU算力來訓練AI模型

GPU通常用於挖掘比特幣等加密貨幣,而挖礦是一種資源密集的過程,需要強大的運算能力。

加密貨幣炒作一度導致市場上GPU短缺,隨著價格飆升,企業和個人轉向採用英偉達(Nvidia) 為遊戲產業提供的GPU,並將其轉變為加密挖礦設備專用的GPU。 

然而隨著加密貨幣熱潮的消退,許多加密挖礦設備關閉甚至被廢棄。這讓Monster API創辦人Gaurav Vij意識到,他們可以重新改變和調整這些設備的用途,以適應最新的運算密集型發展趨勢,也就是訓練和運行AI基礎模型。

雖然這些GPU並不具備AWS或Google雲端等部署的專用AI設備的強大功能,但Gaurav Vij表示,它們能夠訓練優化的開源模型,其成本僅為使用雲端運算提供者使用的超大規模計算設備的一小部分。

Monster API共同創辦人Saurabh Vij表示:「機器學習領域實際上正在與運算能力作鬥爭,因為需求已經超過了供應。現今,許多機器學習開發者耗費了大量資金,倚賴AWS 、Google雲端、微軟Azure等雲端服務供應商取得資源。」 

分散式運算力網路可以大幅降低AI基礎模式訓練成本

實際上,除了加密採礦設備之外,在PlayStation 5等遊戲系統和較小的資料中心中也可以找到未使用的GPU。 Saurabh Vij表示:「加密採礦平台採用GPU,而遊戲系統也採用GPU,且GPU的功能每年都會變得更加強大。」

加入分散式網路需要經過多個步驟,包括資料安全檢查等。涉及企業和個人的算力。需求方依需求添加設備,擴展縮小算力網路。供應方可以從出售閒置算力中獲得了一部分收入。

Saurabh Vij強調,分散式運算系統將AI基礎模型的訓練成本降低到了將來可以由開源和非營利組織訓練的程度,而不僅僅是財力雄厚的大型科技公司。相較於建立一個需要100萬美元的AI基礎模型,我們這樣的去中心化網路只需要10萬美元。 ”

極客網獲悉,Monster API現在還提供“無代碼”工具來微調模型,並向那些沒有技術專長或資源的用戶開放,讓他們從頭開始訓練模型,進一步“民主化”計算能力和AI基礎模型。 

重要的是進行微調,因為許多開發者沒有足夠數量的資料和經費去重新訓練模型。他說,由於對Monster API進行了優化,微調成本降低了90%,從而每個模型的微調費用約為30美元。 

開源模型訓練可以幫助開發人員利用AI進行創新 

雖然AI開發人員面臨迫在眉睫的監管,這可能會直接影響這些訓練模型和開源,但Saurabh Vij認為開源模型訓練有其積極意義。Monster API已經認識到有必要在其分散的網路中管理潛在風險,並確保「可追溯性、透明度和問責制」。   

"Although regulatory authorities may win in the short term, I have great confidence in the open source community and its incredibly rapid development."。在Postman (API開發平台) 上有2500萬註冊開發人員註冊。 ,其中很大一部分正在建立生成式AI,這為所有人開闢了新的業務和新的機會。」他說。

極客網了解到,透過訓練低成本的AI模型,Monster API的目標是讓開發人員最大限度能夠利用機器學習進行創新。目前他們已經有了一些知名的AI模型(例如Stable Diffusion和Whisper)可以微調,此外用戶還可以使用這些GPU算力從頭開始訓練自己的AI基礎模型。

Saurabh Vij介紹稱:「我們已經在Macbook上進行了文圖生成實驗,每分鐘至少可以輸出10張圖像。我們希望在網路上接入數百萬台Macbook,讓用戶在睡覺時也能使用他們的Macbook運行Stable Diffusion、Whisper或其他AI模型獲利。

「最終,Playstation、Xbox、Macbook都將成為強大的運算資源,甚至是特斯拉汽車—因為特斯拉汽車也採用了強大的GPU,而且大多時候停在車庫中。 」Saurabh Vij補充道。

以上是以分散式網路串聯閒置GPU,這家創企稱可將AI模型訓練成本降低90%的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除