作為人工智慧的三個要素之一,數據的作用舉足輕重。
但大家有沒有想過:假如有一天,全世界的資料都用完了那咋整?
實際上,提出這個問題的人絕對沒有精神問題,因為這一天——可能真的快來了! ! !
近日,研究員Pablo Villalobos等人一篇名為《我們會用完資料嗎?機器學習中資料集縮放的限制分析》的論文,發表在了arXiv。
他們根據先前對資料集大小趨勢的分析,預測了語言和視覺領域資料集大小的成長,估計了未來幾十年可用未標記資料總存量的發展趨勢。
他們的研究顯示:最早在2026年,高品質語言資料就將全部消耗殆盡!機器學習發展的速度也將因此而放緩。實在不容樂觀。
這篇論文的研究團隊由11位研究員和3位顧問組成,成員遍布世界各地,致力於縮小AI技術發展與AI策略之間的差距,並為AI安全的關鍵決策者提供建議。
Chinchilla是DeepMind的研究人員提出的一種新型預測計算最佳化模型。
實際上,先前在對Chinchilla進行實驗時,就曾有研究員提出「訓練資料很快就會成為擴展大型語言模型的瓶頸」。
因此他們分析了用於自然語言處理和電腦視覺的機器學習資料集大小的增長,並使用了兩種方法進行推斷:使用歷史增長率,並為未來預測的計算預算估計計算最佳資料集大小。
在此之前,他們一直在收集有關機器學習輸入趨勢的數據,包括一些訓練數據等,也透過估計未來幾十年互聯網上可用未標記數據的總存量,來調查資料使用成長。
由於歷史預測趨勢可能會受過去十年計算量異常增長的“誤導”,研究團隊還使用了Chinchilla縮放定律,來估計未來幾年的資料集大小,提升計算結果的準確性。
最終,研究人員使用一系列機率模型估計未來幾年英語語言和圖像資料的總存量,並比較了訓練資料集大小和總資料庫存的預測,結果如下圖所示。
這表示資料集的成長速度將遠快於資料存量。
因此,如果當前趨勢繼續保持下去,資料存量被用光將是不可避免的。下表則顯示了預測曲線上每個交叉點的中位數耗盡年數。
高品質的語言資料庫存最快可能在2026年之前就被用盡。
相較之下,低品質的語言資料和影像資料情況略好:前者將在2030年至2050年間用光,後者將在2030年至2060年之間。
在論文的最後,研究團隊給出結論:如果數據效率沒有大幅提高或新的數據來源可用,當前依賴巨大數據集不斷膨脹的機器學習模型,它的增長趨勢很可能會放緩。
不過在這篇文章的留言區裡,大多數網友卻認為作者杞人憂天。
Reddit上,一位名為ktpr的網友表示:
「自我監督學習有啥毛病麼?如果任務指定得好,它甚至可以組合擴展資料集大小。」
#名為lostmsn的網友則更加不客氣。他直言:
「Efficient Zero都不了解一下?我認為作者已經嚴重脫離時代了。」
Efficient Zero是一種能高效採樣的強化學習演算法,由清華大學的高陽博士提出。
在資料量有限的情況下,Efficient Zero一定程度上解決了強化學習的效能問題,並在演算法通用測試基準Atari Game上獲得了驗證。
在這篇論文作者團隊的部落格上,就連他們自己也坦言:
「我們所有的結論都基於不切實際的假設,即當前機器學習數據使用和生產的趨勢將繼續保持下去,並且數據效率不會有重大提升。」
####################### 「一個更可靠的模型應該考慮到機器學習資料效率的提高、合成資料的使用以及其他演算法和經濟因素。」############「因此就實際情況來說,這種分析有嚴重的限制。模型的不確定性非常高。」############「不過總體而言,我們仍認為由於缺乏訓練數據,到2040年機器學習模型的擴展有大約有20%的可能性會顯著放緩。」#######
以上是全球優質語言資料存量告急,不容忽視的詳細內容。更多資訊請關注PHP中文網其他相關文章!