首頁  >  文章  >  科技週邊  >  谷歌AI方向巨變新研究要閉源讓OpenAI沒要看

谷歌AI方向巨變新研究要閉源讓OpenAI沒要看

PHPz
PHPz轉載
2023-05-09 15:55:091414瀏覽

眾所周知,Google就像人工智慧領域的「黃埔軍校」,自深度學習興起後培養出了整整一代機器學習研究人員和工程師。在很長一段時間裡,Google就是領先 AI 技術的代名詞。

人們已經習慣跟隨谷歌的腳步,使用其提出的新技術和工具作為研究基礎,谷歌也走出過大批人才,成為了各家研究機構和公司的骨幹。然而最近,在 ChatGPT 的衝擊下,谷歌決定不這麼乾了。

據華盛頓郵報報道,今年二月,長期擔任谷歌人工智慧主管的傑夫・迪恩(Jeff Dean)向其員工宣布了一項令人震驚的政策轉變:Google以後將不得不推遲與外界分享自己的工作成果。

多年來,Jeff Dean 麾下的 Google AI 像大學的電腦系一樣,鼓勵研究人員大量發表學術論文。根據 Google Research 的網站,他們自 2019 年以來推出了近 500 項研究。

但去年底 OpenAI 開創性的 ChatGPT 改變了整個科技領域的現況。 Jeff Dean 在公司研究部門的季度會議上表示,這家背靠微軟的新創公司大量閱讀 Google AI 提交的論文與Google保持同步。這樣的「指責」並不奇怪,事實上,大語言模型的重要基礎,ChatGPT 中的 T —— transformer 是Google 2017 年的一項研究。

Transformer 自提出以來,一直是自然語言處理(NLP)領域研究的大方向,也是 AI 目前這一波突破的源頭。然而谷歌認為這種情況必須改變,據兩名知情人士透露,谷歌將規定自己的人工智慧發現只有在實驗室工作轉化為產品後才能分享論文。

新的政策變化是谷歌內部更大轉變的一部分。長期以來,這家科技巨頭一直被認為是AI 領域的領導者,但現在卻陷入了需要追趕別人的境地—— 谷歌需要抵禦一群靈活的AI 競爭對手,保護自己的核心搜尋業務和股價,以及潛在的未來。

在專欄文章、播客和電視節目中,Google CEO 桑達爾・皮查伊 (Sundar Pichai) 敦促我們需要對人工智慧保持謹慎。 「在社會層面上,它可能會造成很大的傷害,」他在 4 月的「60 分鐘」節目中警告說,並描述了生成式 AI 如何加速虛假圖像和影片的創作。

但與高管們透露出的風向正相反的是,最近幾個月,根據對11 名現任和前谷歌員工的採訪,谷歌已對AI 業務進行了全面改革,目標是快速推出產品。

它降低了向少數群體推出實驗性人工智慧工具的門檻,在公平等領域制定了一套新的評估指標和優先事項。皮查伊在聲明中表示,Google也把 DeepMind 和 Google Brain 進行了合併,以「加速人工智慧的進步」。這個新部門將不會由 Jeff Dean 管理,而是由 DeepMind 的執行長哈薩比斯管理,DeepMind 在某些人看來擁有更新鮮、更有活力的品牌。

在上週早些時候的一次會議上,哈薩比斯表示,人工智慧可能比大多數其他人工智慧專家預測的更接近人類智慧水平,「我們可能只需要幾年,也許… 十年後就可以實現。」

在Google加快步伐的同時,包括著名公司、研究人員和行業資深人士在內的各路聲音都在呼籲人工智慧開發人員放慢腳步,並警告該技術的發展速度已經過快。

Geoffrey Hinton 是 AI 技術的先驅之一,他於 2013 年加入谷歌,最近剛宣布離開公司。 Hinton 最近一直在媒體上警告通用人工智慧有逃避人類控制的危險。皮查伊和 OpenAI、微軟的執行長在上週四也會見了白宮官員,世界各地的監管機構也正在討論如何圍繞該技術制定新規則。

上週,人工智慧先驅 Geoffrey Hinton 辭去了Google副總裁的職務,表示擔心科技的快速進步會導致大量失業和錯誤訊息氾濫。

喜憂參半:有人支持,有人因沮喪轉而離職

對於Google員工來說,在發表相關AI 研究之前需要額外批准意味著可能會在生成式AI 的閃速世界中被別人「搶發」。這種政策也可能被用來悄悄地壓制那些有爭議的論文,例如 2020 年谷歌 Ethical AI 團隊負責人 Timnit Gebru 和 Margaret Mitchell 共同撰寫的關於大語言模型危害的研究。

不得不承認的一點是,Google在 2022 年失去了許多頂尖 AI 研究者,轉投被視為更前衛的新創公司。這種人才外流的部分原因在於對谷歌沒有採取一些明智的決策而感到沮喪,例如未將聊天機器人納入搜尋等。

一位前Google研究者表示,獲得論文發表批准可能需要與高階職員反覆進行嚴格的審查。許多科學家帶著能夠在自身領域進行更廣泛研究的承諾來到Google工作,但隨後又因為發表研究的限制離開了Google。

不過在季度會議的直播中,Jeff Dean 的聲明也得到了一些員工的正面回應。他們紛紛表達了樂觀的態度,希望這項轉變能幫助Google奪回優勢。對於一些研究人員而言,這些他們第一次聽到有關發表研究的限制。

Jeff Dean 最新回應:我們並沒有停止分享研究

不過,對於華盛頓郵報的這篇報道,Jeff Dean 拿出事實,駁斥了他們的觀點。他表示Google研究者合作完成的 100 篇論文在上週的 ICLR 2023 會議上發表,並擔任了大量會議組織和 workshop 演講者角色。

谷歌AI方向巨變新研究要閉源讓OpenAI沒要看

#並且DeepMind 的同事也在ICLR 2023 會議上發表了許多論文和演講。

谷歌AI方向巨變新研究要閉源讓OpenAI沒要看

不過,有人質疑Jeff,認為這100 篇論文是落後指標,並問Jeff 是否能斷言Google和DeepMind 未來的研究交流像過去一樣強大?例如哈薩比斯已經公開表示 DeepMind 未來不會分享太多。

Jeff Dean 回答稱,這是決不可斷言的事情。新研究發表取決於許多因素,就像大會接收論文一樣,我們有很多工作不會發表,也有很多發表了出來。我認為情況不會改變。

谷歌AI方向巨變新研究要閉源讓OpenAI沒要看

#史丹佛NLP 的帳號反駁表示,看起來夏季實習的PhD 學生有的已經不好發表論文了。

谷歌AI方向巨變新研究要閉源讓OpenAI沒要看

#還有人認為,Jeff Dean 如果能直接否認華盛頓郵報報道的觀點,才更有說服力。

谷歌AI方向巨變新研究要閉源讓OpenAI沒要看

最後正如一位網友所言,「未來需要擔心的不是發表論文,它們肯定會憑藉著強大的影響力繼續存在。更需要擔心的是發布程式碼和模型,以及最近幾年高影響力論文似乎退化的趨勢。」

以上是谷歌AI方向巨變新研究要閉源讓OpenAI沒要看的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除