搜尋
首頁科技週邊人工智慧谷歌AI方向巨變新研究要閉源讓OpenAI沒要看

眾所周知,Google就像人工智慧領域的「黃埔軍校」,自深度學習興起後培養出了整整一代機器學習研究人員和工程師。在很長一段時間裡,Google就是領先 AI 技術的代名詞。

人們已經習慣跟隨谷歌的腳步,使用其提出的新技術和工具作為研究基礎,谷歌也走出過大批人才,成為了各家研究機構和公司的骨幹。然而最近,在 ChatGPT 的衝擊下,谷歌決定不這麼乾了。

據華盛頓郵報報道,今年二月,長期擔任谷歌人工智慧主管的傑夫・迪恩(Jeff Dean)向其員工宣布了一項令人震驚的政策轉變:Google以後將不得不推遲與外界分享自己的工作成果。

多年來,Jeff Dean 麾下的 Google AI 像大學的電腦系一樣,鼓勵研究人員大量發表學術論文。根據 Google Research 的網站,他們自 2019 年以來推出了近 500 項研究。

但去年底 OpenAI 開創性的 ChatGPT 改變了整個科技領域的現況。 Jeff Dean 在公司研究部門的季度會議上表示,這家背靠微軟的新創公司大量閱讀 Google AI 提交的論文與Google保持同步。這樣的「指責」並不奇怪,事實上,大語言模型的重要基礎,ChatGPT 中的 T —— transformer 是Google 2017 年的一項研究。

Transformer 自提出以來,一直是自然語言處理(NLP)領域研究的大方向,也是 AI 目前這一波突破的源頭。然而谷歌認為這種情況必須改變,據兩名知情人士透露,谷歌將規定自己的人工智慧發現只有在實驗室工作轉化為產品後才能分享論文。

新的政策變化是谷歌內部更大轉變的一部分。長期以來,這家科技巨頭一直被認為是AI 領域的領導者,但現在卻陷入了需要追趕別人的境地—— 谷歌需要抵禦一群靈活的AI 競爭對手,保護自己的核心搜尋業務和股價,以及潛在的未來。

在專欄文章、播客和電視節目中,Google CEO 桑達爾・皮查伊 (Sundar Pichai) 敦促我們需要對人工智慧保持謹慎。 「在社會層面上,它可能會造成很大的傷害,」他在 4 月的「60 分鐘」節目中警告說,並描述了生成式 AI 如何加速虛假圖像和影片的創作。

但與高管們透露出的風向正相反的是,最近幾個月,根據對11 名現任和前谷歌員工的採訪,谷歌已對AI 業務進行了全面改革,目標是快速推出產品。

它降低了向少數群體推出實驗性人工智慧工具的門檻,在公平等領域制定了一套新的評估指標和優先事項。皮查伊在聲明中表示,Google也把 DeepMind 和 Google Brain 進行了合併,以「加速人工智慧的進步」。這個新部門將不會由 Jeff Dean 管理,而是由 DeepMind 的執行長哈薩比斯管理,DeepMind 在某些人看來擁有更新鮮、更有活力的品牌。

在上週早些時候的一次會議上,哈薩比斯表示,人工智慧可能比大多數其他人工智慧專家預測的更接近人類智慧水平,「我們可能只需要幾年,也許… 十年後就可以實現。」

在Google加快步伐的同時,包括著名公司、研究人員和行業資深人士在內的各路聲音都在呼籲人工智慧開發人員放慢腳步,並警告該技術的發展速度已經過快。

Geoffrey Hinton 是 AI 技術的先驅之一,他於 2013 年加入谷歌,最近剛宣布離開公司。 Hinton 最近一直在媒體上警告通用人工智慧有逃避人類控制的危險。皮查伊和 OpenAI、微軟的執行長在上週四也會見了白宮官員,世界各地的監管機構也正在討論如何圍繞該技術制定新規則。

上週,人工智慧先驅 Geoffrey Hinton 辭去了Google副總裁的職務,表示擔心科技的快速進步會導致大量失業和錯誤訊息氾濫。

喜憂參半:有人支持,有人因沮喪轉而離職

對於Google員工來說,在發表相關AI 研究之前需要額外批准意味著可能會在生成式AI 的閃速世界中被別人「搶發」。這種政策也可能被用來悄悄地壓制那些有爭議的論文,例如 2020 年谷歌 Ethical AI 團隊負責人 Timnit Gebru 和 Margaret Mitchell 共同撰寫的關於大語言模型危害的研究。

不得不承認的一點是,Google在 2022 年失去了許多頂尖 AI 研究者,轉投被視為更前衛的新創公司。這種人才外流的部分原因在於對谷歌沒有採取一些明智的決策而感到沮喪,例如未將聊天機器人納入搜尋等。

一位前Google研究者表示,獲得論文發表批准可能需要與高階職員反覆進行嚴格的審查。許多科學家帶著能夠在自身領域進行更廣泛研究的承諾來到Google工作,但隨後又因為發表研究的限制離開了Google。

不過在季度會議的直播中,Jeff Dean 的聲明也得到了一些員工的正面回應。他們紛紛表達了樂觀的態度,希望這項轉變能幫助Google奪回優勢。對於一些研究人員而言,這些他們第一次聽到有關發表研究的限制。

Jeff Dean 最新回應:我們並沒有停止分享研究

不過,對於華盛頓郵報的這篇報道,Jeff Dean 拿出事實,駁斥了他們的觀點。他表示Google研究者合作完成的 100 篇論文在上週的 ICLR 2023 會議上發表,並擔任了大量會議組織和 workshop 演講者角色。

谷歌AI方向巨變新研究要閉源讓OpenAI沒要看

#並且DeepMind 的同事也在ICLR 2023 會議上發表了許多論文和演講。

谷歌AI方向巨變新研究要閉源讓OpenAI沒要看

不過,有人質疑Jeff,認為這100 篇論文是落後指標,並問Jeff 是否能斷言Google和DeepMind 未來的研究交流像過去一樣強大?例如哈薩比斯已經公開表示 DeepMind 未來不會分享太多。

Jeff Dean 回答稱,這是決不可斷言的事情。新研究發表取決於許多因素,就像大會接收論文一樣,我們有很多工作不會發表,也有很多發表了出來。我認為情況不會改變。

谷歌AI方向巨變新研究要閉源讓OpenAI沒要看

#史丹佛NLP 的帳號反駁表示,看起來夏季實習的PhD 學生有的已經不好發表論文了。

谷歌AI方向巨變新研究要閉源讓OpenAI沒要看

#還有人認為,Jeff Dean 如果能直接否認華盛頓郵報報道的觀點,才更有說服力。

谷歌AI方向巨變新研究要閉源讓OpenAI沒要看

最後正如一位網友所言,「未來需要擔心的不是發表論文,它們肯定會憑藉著強大的影響力繼續存在。更需要擔心的是發布程式碼和模型,以及最近幾年高影響力論文似乎退化的趨勢。」

以上是谷歌AI方向巨變新研究要閉源讓OpenAI沒要看的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:51CTO.COM。如有侵權,請聯絡admin@php.cn刪除
閱讀AI索引2025:AI是您的朋友,敵人還是副駕駛?閱讀AI索引2025:AI是您的朋友,敵人還是副駕駛?Apr 11, 2025 pm 12:13 PM

斯坦福大學以人為本人工智能研究所發布的《2025年人工智能指數報告》對正在進行的人工智能革命進行了很好的概述。讓我們用四個簡單的概念來解讀它:認知(了解正在發生的事情)、欣賞(看到好處)、接納(面對挑戰)和責任(弄清我們的責任)。 認知:人工智能無處不在,並且發展迅速 我們需要敏銳地意識到人工智能發展和傳播的速度有多快。人工智能係統正在不斷改進,在數學和復雜思維測試中取得了優異的成績,而就在一年前,它們還在這些測試中慘敗。想像一下,人工智能解決複雜的編碼問題或研究生水平的科學問題——自2023年

開始使用Meta Llama 3.2 -Analytics Vidhya開始使用Meta Llama 3.2 -Analytics VidhyaApr 11, 2025 pm 12:04 PM

Meta的Llama 3.2:多模式和移動AI的飛躍 Meta最近公佈了Llama 3.2,這是AI的重大進步,具有強大的視覺功能和針對移動設備優化的輕量級文本模型。 以成功為基礎

AV字節:Meta' llama 3.2,Google的雙子座1.5等AV字節:Meta' llama 3.2,Google的雙子座1.5等Apr 11, 2025 pm 12:01 PM

本週的AI景觀:進步,道德考慮和監管辯論的旋風。 OpenAI,Google,Meta和Microsoft等主要參與者已經釋放了一系列更新,從開創性的新車型到LE的關鍵轉變

與機器交談的人類成本:聊天機器人真的可以在乎嗎?與機器交談的人類成本:聊天機器人真的可以在乎嗎?Apr 11, 2025 pm 12:00 PM

連接的舒適幻想:我們在與AI的關係中真的在蓬勃發展嗎? 這個問題挑戰了麻省理工學院媒體實驗室“用AI(AHA)”研討會的樂觀語氣。事件展示了加油

了解Python的Scipy圖書館了解Python的Scipy圖書館Apr 11, 2025 am 11:57 AM

介紹 想像一下,您是科學家或工程師解決複雜問題 - 微分方程,優化挑戰或傅立葉分析。 Python的易用性和圖形功能很有吸引力,但是這些任務需要強大的工具

3種運行Llama 3.2的方法-Analytics Vidhya3種運行Llama 3.2的方法-Analytics VidhyaApr 11, 2025 am 11:56 AM

Meta's Llama 3.2:多式聯運AI強力 Meta的最新多模式模型Llama 3.2代表了AI的重大進步,具有增強的語言理解力,提高的準確性和出色的文本生成能力。 它的能力t

使用dagster自動化數據質量檢查使用dagster自動化數據質量檢查Apr 11, 2025 am 11:44 AM

數據質量保證:與Dagster自動檢查和良好期望 保持高數據質量對於數據驅動的業務至關重要。 隨著數據量和源的增加,手動質量控制變得效率低下,容易出現錯誤。

大型機在人工智能時代有角色嗎?大型機在人工智能時代有角色嗎?Apr 11, 2025 am 11:42 AM

大型機:AI革命的無名英雄 雖然服務器在通用應用程序上表現出色並處理多個客戶端,但大型機是專為關鍵任務任務而建立的。 這些功能強大的系統經常在Heavil中找到

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
3 週前By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
3 週前By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您聽不到任何人,如何修復音頻
3 週前By尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解鎖Myrise中的所有內容
3 週前By尊渡假赌尊渡假赌尊渡假赌

熱工具

WebStorm Mac版

WebStorm Mac版

好用的JavaScript開發工具

MantisBT

MantisBT

Mantis是一個易於部署的基於Web的缺陷追蹤工具,用於幫助產品缺陷追蹤。它需要PHP、MySQL和一個Web伺服器。請查看我們的演示和託管服務。

SecLists

SecLists

SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

VSCode Windows 64位元 下載

VSCode Windows 64位元 下載

微軟推出的免費、功能強大的一款IDE編輯器

Atom編輯器mac版下載

Atom編輯器mac版下載

最受歡迎的的開源編輯器