圖片來源 視覺中國
中青報·中青網記者 袁 野
人工智慧每次和你聊天,它背後的公司都會賠錢。
美國《華盛頓郵報》報道稱,以ChatGPT為代表的大型語言模型的運維成本非常高,以至於推出它們的公司不願向公眾提供最好的版本。美國馬裡蘭大學電腦科學教授湯姆·戈爾茨坦說:「目前正在部署的模型,看起來令人印象深刻,但並不是最好的。」他認為,如果完全不考慮成本因素,那麼人工智慧廣遭詬病的缺點,例如傾向於給予有偏見的結果甚至說謊,都是可以避免的。
人工智慧需要密集的運算能力,這就是為什麼ChatGPT的開發商OpenAI公司在其免費版中只運行能力較弱的GPT-3.5模型。每3小時,即使那些每月支付20美元使用GPT-4高級模型的用戶也只能發送25個訊息。背後的原因就是營運成本太高。
去年12月,ChatGPT發布後不久,OpenAI執行長薩姆·阿特曼估計其「每次聊天可能只需幾美分」。儘管聽起來價格不高,但考慮到它擁有超過1000萬的日活用戶,整體成本仍然非常昂貴。今年2月,有研究機構稱,即使只運行GPT-3.5,ChatGPT每天在計算方面的成本仍高達70萬美元。
《華盛頓郵報》稱,成本問題可能也是谷歌尚未在其搜尋引擎中加入人工智慧聊天機器人的原因之一,該引擎每天要處理數百億次查詢。美國一家產業研究公司的首席分析師迪倫·帕特爾估計,對運維者來說,客戶與ChatGPT進行一次聊天的成本,可能是進行一次谷歌搜尋的1000倍。
人工智慧的成本甚至驚動了白宮。英國路透社稱,在最近發布的一份關於人工智慧的報告中,拜登政府指出,生成式人工智慧的運算成本是個「全國性問題」。據白宮表示,這項技術將顯著增加運算需求和相關環境影響,因此迫切需要設計更永續的系統。
路透社稱,與其他形式的機器學習相比,生成式人工智慧尤其依賴令人眼花撩亂的運算能力和專用電腦晶片,只有實力雄厚的公司才負擔得起。 5月,薩姆·阿特曼在出席美國國會參議院聽證會時表示,「事實上,我們的晶片(GPU)非常短缺,所以,使用我們產品的人越少越好。」
根據伊隆馬斯克在5月23日舉行的一場華爾街日報高峰會上所述,現階段GPU比藥物更受歡迎。最近,馬斯克的人工智慧新創公司購買了約1萬塊GPU,用於自己的研究和專案。
令人矚目的新科技燒錢,對科技業而言並非新鮮事。 《華盛頓郵報》稱,矽谷之所以能夠主導網路經濟,部分原因是它向全世界免費提供線上搜尋、電子郵件和社群媒體等服務,這些業務起初都是虧損的,但後來,這些公司透過個性化廣告獲得了巨額利潤。儘管人工智慧產業可能採用同樣的策略,但分析師指出,僅依靠廣告收入可能無法讓高階人工智慧工具在短時間內獲利。
因此,為消費者提供人工智慧模型的公司必須在贏得市場份額的渴望與令人頭痛的財務損失之間取得平衡。
《華盛頓郵報》指出,即使人工智慧能夠賺錢,利潤可能也會流向雲端運算巨頭,以及運行模型所需硬體的晶片製造商。目前,開發出領先的人工智慧語言模式的公司要不是最大的雲端運算供應商(如Google和微軟),就是與它們有密切的合作關係(如OpenAI),這並非偶然。
對消費者來說,不受限制地使用強大的人工智慧模式的日子,或許已經屈指可數。
路透社稱,微軟已開始嘗試在人工智慧搜尋結果中植入廣告。儘管更喜歡付費訂閱模式,但在聽證會上,OpenAI的阿特曼表示不排除採取同樣的做法。兩家公司都表示,相信人工智慧有朝一日能夠獲利。 「它的價值如此之大,我無法想像…如何在它上面敲響收銀機。」今年2月,阿特曼在接受媒體採訪時表示。
以上是人工智慧和你聊天 成本有多高的詳細內容。更多資訊請關注PHP中文網其他相關文章!