ChatGPT在手,有問必答。
你可知,與它每次對話的計算成本簡直讓人淚目。
先前,分析師表示ChatGPT回覆一次,需要2分。
要知道,人工智慧聊天機器人所需的算力背後燒的可是GPU。
這正是讓像英偉達這樣的晶片公司豪賺了一把。
2月23日,英偉達股價飆升,使其市值增加了700多億美元,總市值超5800億美元,大約是英特爾的5倍。
在英偉達之外,AMD可以稱得上是圖形處理器產業的第二大廠商,市佔率約20%。
而英特爾持有不到1%的市佔率。
隨著ChatGPT解鎖潛在的應用案例,這可能迎來人工智慧應用的另一個拐點。
為什麼這麼說?
Google母公司Alphabet董事長John Hennessy在接受路透社的採訪時表示,大型語言模型等人工智慧的對話成本可能是傳統搜尋引擎的10倍以上。
Morgan Stanley分析表示,Google去年共計3.3兆次搜索,每次搜尋的成本僅為0.2美分。
#據估計,若將Google旗下聊天機器人Bard引入搜尋引擎,並用其處理谷歌一半的搜尋和提問,以每次答案50個字計算,公司在2024年的成本可能會增加60億美元。
同樣,專注於晶片技術的顧問公司SemiAnalysis稱,受到谷歌內部晶片Tensor Processing Units等的影響,將聊天機器人添加至搜尋引擎中,可能會讓谷歌額外花費30億美元。
#他認為Google必須降低此類人工智慧的營運成本,但這過程並不容易,最壞的情況也得需要幾年時間。
正是如此,透過AI語言模型進行搜尋比傳統搜尋需要消耗更多的算力。
分析師表示,未來幾年的額外成本可能高達數十億美元。
Gartner預計,到2026年,用於資料中心的GPU等專業晶片的份額預計將從2020年的不到3%上升15%以上。
#雖然很難確切地指出如今人工智慧在英偉達收入中所佔的比例有多大,但隨著大型科技公司競相開發類似的AI應用程序,人工智慧有成倍增長的潛力。
週三,英偉達也宣布了人工智慧雲端服務,並致力於甲骨文、微軟和谷歌合作,為其提供使用Nvidia GTX,透過簡單的瀏覽器存取進行人工智慧處理的能力。
這個新平台將由其他雲端服務商提供,將幫助那些不具備建立自己的基礎設施的科技公司。
#黃仁勳稱,「人們對ChatGPT的熱情讓商界領袖們看到了人工智慧的力量。但是現在,它主要是一個通用軟體。其真正價值的實現,還需要根據公司自身的需求量身定做,這樣就可以改進自家的服務和產品。」
New Street Research稱,英偉達佔據了95%圖形處理器的市場份額。
在費城證券交易所半導體指數中,英偉達股今年已經上漲42%,表現最好。
投資者紛紛投向英偉達,押注在對ChatGPT等人工智慧系統的需求將推高該公司產品的訂單,使其再次成為全球市值最高的晶片製造商。
一直以來,不管是成為頂流的ChatGPT,還是Bard、Stable Diffusion等模型,背後都是由一個大約價值1萬美元的晶片Nvidia A100提供算力。
英偉達A100能夠同時進行許多簡單的運算,對訓練和使用神經網路模型非常重要。
A100背後的技術最初是用在遊戲中渲染複雜的3D圖形。而現在,其目標是處理機器學習任務和在資料中心運行。
投資者Nathan Benaich表示,A100目前已成為人工智慧專業人士的「主力」。他的報告還列出了使用 A100超級電腦部分公司的名單。
#機器學習任務可能會佔用整台電腦的處理能力,有時會持續數小時或數天。
這意味著,那些擁有暢銷AI產品的公司往往需要購買更多的GPU來應對訪問高峰期,或改進其模型。
除了卡片上可以插入現有伺服器的單一A100之外,許多資料中心還使用一個包含8個A100圖形處理器的系統。
這個系統,便是Nvidia DGX A100,單套系統售價高達20萬美元。
#英偉達週三表示,將直接出售DGX系統的雲端存取權限,這可能會降低研究人員的入門成本。
那麼運行新版必該需要付出怎樣的成本?
#New Street Research的一項評估發現,必應搜尋中基於OpenAI的ChatGPT模型可能需要8個GPU才能在不到一秒鐘的時間內給出一個問題的答案。
以這個速度,微軟需要超過2萬台8個GPU伺服器才能將這個模型部署到每個人手中。
那麼微軟可能會花費40億美元的基礎設施開支。
這光是微軟,如果想要達到Google每日查詢規模,也就是每天提供80億-90億個查詢,就需要花費800億美元。
再比如,最新版本的Stable Diffusion,在256個A100圖形處理器,或32台DGX A100進行計算200,000小時。
Stability AI的執行長Mostaque表示,以市場價格計算,光是訓練該模型就需要花費60萬美元。與競爭對手相比,這個價格非常便宜。這還不包括推斷或部署模型的成本。
黃仁勳在接受採訪時表示,
就這類模型所需的運算量而言,Stability AI的產品其實並不昂貴。
我們採用了原本需要10億美元才能運行CPU的資料中心,然後將其縮小為1億美元的資料中心。現在,這1億美元資料中心放在雲端由100家公司共同分擔,都不算什麼。
英偉達GPU可以讓新創公司以較成本訓練模式。現在你可以建立一個大型語言模型,像是GPT,大概需要1000萬到2000萬美元。這真的,真的很實惠。
2022人工智慧現況報告稱,截至2022年12月,超過2.1萬份開源AI論文使用了英偉達晶片。
國家人工智慧運算指數(State of AI Compute Index) 中的大多數研究人員使用的是2017年推出的英偉達晶片V100,但A100在2022年快速成長,成為使用頻率排在第三的晶片。
A100最激烈的競爭可能是它的繼任者H100,2022年推出並已開始量產。事實上,英偉達週三表示,在截至1月的季度,H100的收入超過了A100。
目前來看,英偉達正在乘坐著AI的快車向「錢」衝刺了。
#以上是超5800億美元!微軟谷歌神仙打架,讓英偉達市值飆升,約5個英特爾的詳細內容。更多資訊請關注PHP中文網其他相關文章!