AI在過去十多年的快速發展,得益於大學、企業與個人開發者的通力合作,讓人工智慧領域內遍布開源的程式碼、資料及教學。
Google也一直是AI產業的領導者,發表的論文橫跨自然語言處理、電腦視覺、強化學習等多個領域,為業界貢獻了諸如 Transformer, Bert, PaLM等諸多基礎模型與架構。
但OpenAI打破了遊戲規則,不僅拿著Transformer開發出了ChatGPT,還憑著新創公司的優勢,如受法律、輿論的影響更少,無需透露訓練數據、模型規模、架構等信息,甚至還挖走了不少谷歌等大廠的員工,打得Google是節慶敗退。
面對不講武德的OpenAI,Google也只能被動挨打。
據匿名人士提供的消息稱,今年2月,Google AI的掌門人Jeff Dean在會議中表示:
#Google would take advantage of its own AI discoveries, sharing papers only after the lab work had been turned into products
Google將利用自己在人工智慧方面的成果,只有在實驗室成果轉化為產品後,才會分享論文。
轉向「防禦狀態」的Google或許寄望把同類AI公司全都熬走,更好地保護自己的核心搜尋業務及股價。
但AI如果少了這些大公司的開源精神,轉而走向壟斷,人工智慧領域還能出現先前的發展奇蹟嗎?
對於Google這種數十億用戶體積的公司,即使是小規模的實驗也可能會影響到數百萬人,並遭受輿論的反噬,這也是谷歌遲遲不願推出聊天機器人並堅守「負責任AI」底線的原因。
2015年,Google Photos上線影像分類功能,將一名黑人錯誤分類為Gorillas(大猩猩),Google立刻陷入公關危機,迅速道歉並整改。
Google整改的措施就是直接把Gorillas標籤刪了,甚至刪掉了貴賓犬(poodle),黑猩猩(chimpanzee),猴子(monkey)等類別。
結果就是影像分類器不會再把黑人辨識為猩猩,但也辨識不了真正的猩猩了。
儘管多年來谷歌一直在投入大量資金開發人工智慧技術,但受限於神經網路的黑盒子不可解釋性,谷歌也無法完全保證投產後的可控性,需要更長時間的安全性測試,也就失去了先發優勢。
今年4月,GoogleCEO劈柴哥(Sundar Pichai)在參加《60分鐘》節目中仍然明確表示,人們需要對人工智慧保持謹慎,它可能對社會造成很大的危害,如偽造影像和影片等。
如果Google選擇「不那麼負責」,勢必會引起更多監管機構、人工智慧研究者和商界領袖的關注。
但DeepMind 共同創辦人Mustafa Suleyman表示,其實不是因為他們過於謹慎,而是因為他們不願意破壞現有的收入流和商業模式,只有當存在真正的外部威脅時,他們才會開始覺醒。
而這個威脅,已經來了。
從2010年起,Google就開始收購人工智慧新創企業,並將相關技術逐步融入自家產品中。
2013年,Google邀請深度學習先驅、圖靈獎得主Hinton加盟(剛離職);一年後,Google還以6.25億美元收購了新創公司DeepMind
在被任命為Google執行長後不久,劈柴哥更是宣布Google將以「AI優先」為基本策略,將人工智慧技術整合到其所有產品中。
多年的深耕也讓Google的人工智慧研究團隊取得了許多突破性進展,但與此同時,一些規模較小的新創公司也在人工智慧領域取得了一些成就。
OpenAI 成立的初衷是為了製衡大型科技公司對人工智慧領域公司的收購壟斷,並且憑藉小公司的優勢,OpenAI受到的審查和監管更少,而且更有意願快速將人工智慧模型交付到一般使用者手中。
所以人工智慧的軍備競賽就在這種沒有監管的情況下愈演愈烈,面對競爭,大型企業的「責任感」可能會逐漸減弱。
Google高層也不得不選擇DeepMind所擁護的「人工智慧技術匹配」、「超越人類智慧」等通用人工智慧概念的前景。
今年4月21日,劈柴哥宣布將原由Jeff Dean經營的Google大腦和先前收購的DeepMind合併,交由DeepMind聯合創辦人兼執行長Demis Hassabis負責,以加速谷歌在人工智慧領域的進步。
Hassabis認為,在幾年內,人工智慧的水平有可能比大多數專家預測的更接近人類智慧的水平。
根據外媒對11名Google現任和前任員工的採訪,最近幾個月,Google已對旗下人工智慧業務進行了全面改革,主要目標是迅速推出產品,降低向小型用戶群推出實驗性人工智慧工具的門檻,在公平性等領域開發一套新的評估指標和優先順序。
劈柴哥強調,Google嘗試加快研發速度並不意味著偷工減料。
我們正在設立一個新的部門,旨在建立更具能力、更安全、更負責任的系統,以確保通用人工智慧的負責任發展。
前Google大腦人工智慧研究員Brian Kihoon Lee在今年1月大規模裁員潮中被解雇了,他將這種轉變描述為谷歌從「和平時期」向「戰爭時期」的轉變,一旦競爭變得激烈,一切都會改變。在戰時狀態,競爭對手的市佔率成長也很關鍵。
Google發言人Brian Gabriel表示:在2018年,Google建立了內部管理架構和全面的審查流程,到目前為止已經在各個產品領域進行了數百次審查。谷歌將繼續在基於人工智慧的技術中應用該流程,確保他們開發的人工智慧具有責任感仍然是公司的首要任務。
但決定人工智慧產品何時準備上市的標準不斷變化,也引發了員工的不安情緒,例如Google在決定發布Bard後,調低了實驗性人工智慧產品的測驗分數標準,引起了內部員工的反對。
2023年初,Google公佈了由兩個人工智慧團隊(Responsible Innovation和Responsible AI)圍繞Bard設定的約20項政策,員工普遍認為這些規定相當明確且完善。
也有員工認為這些標準制定的比較像是給外界表演看的,不如公開訓練資料或是開源模型,使用者能夠更明確地了解模型的能力。
Google加速研發的決定對員工來說,喜憂參半。
喜的是,非科研職位的員工們普遍持樂觀態度,認為該決策可以幫助Google重回上風。
但對研究人員來說,在發表相關人工智慧研究成果之前需要獲得額外的批准,可能意味著研究人員將在快速發展的生成式人工智慧領域錯失首發機會。
也有一些人擔心,Google可能會悄悄壓下有爭議的論文,例如2020年由谷歌的道德人工智慧團隊領導,Timnit Gebru和Margaret Mitchell共同撰寫的一項關於大型語言模型危害的研究。
過去一年間,許多頂尖的人工智慧研究人員都被新創公司挖走了,部分原因在於谷歌對科研人員成果的不重視和過度審查。
得到論文批准可能需要通過高級研究員的嚴格反覆審查,這是一位前谷歌研究人員所說的。谷歌承諾了許多科學研究人員讓他們能夠繼續參與本領域更廣泛的研究主題,出版限制可能會讓迫使又一批研究人員出走。
Google加速發展之際,也有一些聽起來不是那麼和諧的聲音,他們呼籲各大人工智慧廠商放慢開發速度,並且認為這項技術的發展速度已經超出了發明者的預期。
Geoffrey Hinton, a pioneer in deep learning, left Google amid concerns about the potential danger of superintelligent AI that could escape from human control.。
消費者也逐漸開始了解大型語言模型的風險和局限性,例如人工智慧傾向於捏造事實等,而ChatGPT上的小字免責聲明上並沒有說清楚它的局限性。
基於ChatGPT的下游應用揭露出了更多問題,例如史丹佛大學教授Percy Liang曾經展開過一項研究,新必應提供的引用大概只有70%是正確的。
5月4日,白宮邀請了Google、OpenAI、微軟的執行長會面,商討大眾對AI科技的擔憂,以及如何對AI進行監管。
美國總統拜登在邀請函中明確表示,AI公司必須確保產品的安全性,然後才能向公眾開放。
以上是谷歌慌了!想發論文得審批,優先開發產品:ChatGPT成人工智慧領域絕唱?的詳細內容。更多資訊請關注PHP中文網其他相關文章!