首頁 >科技週邊 >人工智慧 >美媒關注:訓練出ChatGPT需要消耗多少電力?

美媒關注:訓練出ChatGPT需要消耗多少電力?

王林
王林轉載
2023-04-10 18:31:031736瀏覽

美媒關注:訓練出ChatGPT需要消耗多少電力?

3月10日訊息,AI已經重新成為科技業的熱門話題,預計它將徹底改變從零售到醫藥等價值數萬億美元的行業。但每創造一個新的聊天機器人或影像產生器都需要耗費大量的電力,這意味著這項技術可能會釋放大量溫室氣體,進而加劇全球暖化問題。

微軟、Google和ChatGPT製造商OpenAI都要使用雲端運算,而雲端運算依賴全球海量資料中心伺服器內數以千計的晶片來訓練被稱為模型的AI演算法,分析資料以幫助這些演算法「學習」如何執行任務。 ChatGPT的成功促使其他公司競相推出自己的AI系統和聊天機器人,或是開發使用大型AI模型的產品。

與其他形式的計算相比,AI需要使用更多的能源,訓練單一模型消耗的電力超過100多個美國家庭1年的用電量。然而,雖然AI產業成長非常快,但卻不夠透明,以至於沒有人確切知道AI的總用電量和碳排放量。碳排放量也可能有很大差異,這取決於提供電力的發電廠類型,靠燒煤或天然氣發電供電的資料中心,碳排放量顯然高於太陽能或風力發電支援的資料中心。

雖然研究人員已經統計了創建單一模型所產生的碳排放量,有些公司也提供了有關他們能源使用的數據,但他們沒有對這項技術的總用電量進行總體估計。 AI公司Huging Face研究員薩莎·盧西奧尼(Sasha Luccioni)寫了一篇論文,量化了她旗下公司Bloom的碳排放情況,Bloom是OpenAI模型GPT-3的競爭對手。盧西奧尼也試圖根據一組有限的公開數據,對OpenAI聊天機器人ChatGPT的碳排放情況進行評估。

提高透明度

盧西奧尼等研究人員表示,在AI模型的電力使用和排放方面,需要提高透明度。有了這些訊息,政府和公司可能會決定,使用GPT-3或其他大型模型來研究癌症治療或保護原住民語言是否值得。

更高的透明度也可能帶來更多的審查,加密貨幣產業可能會提供前車之鑑。根據劍橋比特幣電力消耗指數,比特幣因其耗電量過大而受到批評,每年的耗電量與阿根廷一樣多。這種對電力的貪婪需求促使紐約州通過了一項為期兩年的禁令,暫停向以化石燃料發電供電的加密貨幣採礦商發放許可證。

GPT-3是功能單一的通用AI程序,可以產生語言,具有多種不同的用途。 2021年發表的一篇研究論文顯示,訓練GPT-3耗用了1.287吉瓦時電量,大約相當於120個美國家庭1年的用電量。同時,這樣的訓練產生了502噸碳,相當於110輛美國汽車1年的排放量。而且,這種訓練只適用於一個程序,或者說是「模型」。

雖然訓練AI模型的前期電力成本龐大,但研究人員發現,在某些情況下,這只是模型實際使用所消耗電力的40%左右。此外,AI模型也變得越來越大。 OpenAI的GPT-3使用了1750億個參數或變量,而其前身僅使用了15億個參數。

OpenAI已經在研究GPT-4,而且必須定期對模型進行再訓練,以保持其對時事的了解。卡內基美隆大學教授艾瑪·斯特魯貝爾(Emma Strubell)是第一批研究AI能源問題的研究人員之一,她說:「如果你不對模型進行再訓練,它甚至可能不知道何為新冠肺炎。」

另一個相對的衡量標準來自谷歌,研究人員發現,AI訓練佔該公司總用電量的10%至15%,2021年該公司的總用電量為18.3太瓦時。這意味著,Google的AI每年耗電量達2.3太瓦時,大約相當於亞特蘭大所有家庭的1年用電量。

科技巨頭做出淨零承諾

雖然在許多情況下,AI模型變得越來越大,但AI公司也在不斷改進,使其以更有效率的方式運作。微軟、Google和亞馬遜等美國最大的雲端運算公司,都做出了碳減排或淨零承諾。谷歌在聲明中表示,到2030年,該公司將在所有業務中實現淨零排放,目標是完全使用無碳能源來營運辦公室和資料中心。谷歌也正在使用AI來提高其資料中心的能源效率,該技術直接控制設施中的冷卻系統。

OpenAI也列舉了該公司為提高ChatGPT應用程式介面的效率所做的工作,幫助客戶降低了用電量和價格。 OpenAI發言人表示:「我們非常認真地承擔起阻止和扭轉氣候變遷的責任,我們對如何最大限度地利用我們的運算能力進行了很多思考。OpenAI運行在Azure上,我們與微軟團隊密切合作,以提高運行大型語言模型的效率並減少碳排放。」

微軟指出,該公司正在購買再生能源,並採取其他措施,以實現先前宣布的目標,即在2030年實現淨零排放。微軟在聲明中表示:「作為我們創造更永續未來承諾的一部分,微軟正在投資研究,以衡量AI的能源使用和碳排放影響,同時致力於提高大型系統在培訓和應用方面的效率。 」

耶路撒冷希伯來大學教授羅伊·施瓦茨(Roy Schwartz)與微軟的一個團隊合作,測量了一個大型AI模型的碳足跡。他表示:「顯然,這些公司不願透露他們使用的是什麼模型,以及它排放了多少碳。」

有些方法可以讓AI更有效率地運作。能源諮詢公司Wood Mackenzie的 Ben Hertz-Shargel表示,由於AI訓練可以隨時進行,開發者或資料中心可以將訓練安排在電力更便宜或過剩的時候,從而使它們的營運更加環保。 AI公司在電力過剩時訓練自己的模型,然後可以在行銷中將其當成一大賣點,以此表明他們注重環保。

晶片運行耗電量驚人

大多數資料中心使用圖形處理單元(GPU)來訓練AI模型,這些組件是晶片行業製造的最耗電組件之一。摩根士丹利分析師本月稍早發布的一份報告稱,大型模型需要數萬個GPU,培訓週期從幾週到幾個月不等。

AI領域中更大的謎團之一是與所使用晶片相關的碳排放總量。最大的GPU製造商英偉達表示,當涉及AI任務時,他們的晶片可以更快地完成任務,整體上效率更高。

英偉達在聲明中表示:「與使用CPU相比,使用GPU來加速AI速度更快,也更有效率。對於某些AI工作負載來說,能源效率通常可以提高20倍,對於生成式人工智慧必不可少的大型語言模型,能源效率則可提高300倍。」

盧西奧尼說,雖然英偉達已經披露了與能源相關的直接排放和間接排放數據,但該公司並沒有透露更多細節。她認為,當英偉達分享這些資訊時,我們可能會發現GPU消耗的電量與一個小國用電量差不多,「這可能會讓人抓狂」! (小小)

以上是美媒關注:訓練出ChatGPT需要消耗多少電力?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除