這篇1月27日的分析文章,發出之後不到一周,Google和微軟就相繼官宣,要把AI聊天機器人整合進搜尋引擎。
回頭再看,到處都是迴力鏢。
對於發展AI,科技巨頭們的態度一向慎之又慎。然而ChatGPT的橫空出世,讓它們酸出天際。
人工智慧發展的基石,是Google、Meta和微軟這些大公司搭起來的。
然而現在,銳意進取的小公司正以讓人頭暈目眩的速度將AI推向大眾,打得這些巨頭措手不及。
面對著科技股的持續下跌,以及ChatGPT爆紅帶來的壓力,矽谷大廠們似乎在突然之間就「開竅」了——願意承擔更多的「聲譽風險」。
作為時下最當紅的明星,ChatGPT已經幫OpenAI從微軟爸爸那裡吸引了數十億美元的投資。
而ChatGPT本身,也很可能會被整合到微軟流行的辦公室軟體全家桶中,向企業銷售。
根據《華爾街日報》對六位谷歌和Meta前任員工的匿名採訪,ChatGPT獲得的關注激增後,也給Meta和谷歌之類的科技巨頭造成了壓力,讓他們不再那麼顧慮安全問題。
Meta員工透露,公司的內部備忘錄顯示,公司正催著加快AI的審批程序,趕快利用起最新的技術。
《紐約時報》報道,Google看到ChatGPT的繁榮景象之後,除了發布紅色代碼,還推出了「綠色通道」,縮短評估和減輕潛在危害的流程。
其實,早在ChatGPT亮相的三個月前,Meta就曾發布類似的聊天機器人。
但不同於ChatGPT五天後就破百萬的用戶量,這個叫做Blenderbot的聊天機器人非常無聊。
這一點,就連Meta的首席AI科學家Yann LeCun都不得不承認。
「熱天可以把狗放進冰箱裡嗎?」「我不能跟陌生人討論這些。」
最近,LeCun在論壇上解釋:「它之所以這麼無聊,是因為我們把它做得很安全。」
他說,大眾的反應之所以不溫不火,是因為Meta對於內容審核「過於謹慎」了。
有一個陰謀論這麼解釋:Blenderbot這麼無聊是故意的。 Meta可以製造更好的AI,也許有了更好的AI,但他們決定發布一個糟糕的AI。
是的,大型科技公司一直以來都面臨的一個問題是,對人工智慧道德影響的審查機制,並不像隱私或資料安全那麼成熟。
通常情況下,研究人員和工程師團隊會希望他們提出的技術創新,能夠被更快地做成產品進入到公眾的視野之中,或者融入公司現有的基礎設施。
不難想像,在推進的過程中,很容易就會與公司中致力於「負責任的人工智慧」的團隊發生衝突。
例如,在簽署為五角大廈無人機提供電腦視覺的合約Project Maven時,就有不少員工提出了抗議。
而一個可以打電話給餐廳預訂,不會透露自己是機器人的專案Duplex,也引發了員工的抵觸情緒。
為此,Google在2018年正式發布了人工智慧「七項原則」。
文章網址:https://blog.google/technology/ai/ai-principles/
Cohere共同創辦人,曾在Google大腦工作了三年的Nick Frosst表示,像Google和微軟這樣的大公司,更多會專注於利用AI來改善他們現有商業模式。
畢竟,激進所帶來的「聲譽風險」,是巨人們承受不起的。
尤其是在微軟的Tay遭遇慘敗後,他們就變得格外小心。
2016年,Tay上線不到一天就被火速封存。因為有人讓這個聊天機器人發動種族戰爭,並洗白納粹。當時輿論一片嘩然。
2022年,Meta家的Galactica,在上線短短三天之後就被下了。網友紛紛指責它對科學研究的總結非常不准,有時還帶有偏見。
不過,大廠對此也有自己的看法。
Meta基礎人工智慧研究部經理Joelle Pineau說:「人工智慧的進展速度快得令人難以置信,而我們不僅需要確保高效的審查流程,而且還要做出正確的決定,並發布最適合我們社區的AI模型和產品。」
GoogleLily Lin說:「我們相信,人工智慧是一項基礎性和變革性的技術,對個人、企業和社區都非常非常大的作用。我們需要考慮這些創新可能產生的更廣泛的社會影響。我們會繼續在內部測試我們的AI技術,確保它是有用和安全的。」
微軟的溝通主管Frank Shaw表示,當微軟使用DALLE-2這樣的AI時,會與OpenAI合作,建立額外的安全緩解措施。
「微軟多年來一直致力於推動人工智慧領域的發展,並且會公開指導用戶在我們的平台上以負責任和道德的方式創建和使用這些技術。」
但問題是,擔心來擔心去,自己轉眼間就被甩在了後面。
過去的2022年,可以稱為AIGC元年。我們見證了DALL-E 2、Stable Diffusion和ChatGPT的爆火。
尤其是在OpenAI發布ChatGPT之後,生成式人工智幹掉谷歌的聲音此起彼伏——
##眾所周知,ChatGPT可以用一種更易懂的方式提供了簡單的答案,而不需要用戶去點擊各種連結。
不過,非常有趣的一點是,這些AI的底層技術,其實都是由Google這些巨頭開創的。
但近年來,這些大廠變得愈發神秘,他們會宣布新的模型或提供demo,但不會公佈完整的產品。
同時,像OpenAI這樣的研究實驗室,卻「穩準狠」地推出了最新版本的AI。這也讓人懷疑大廠們磨蹭著究竟在幹什麼,像是Google語言模型LaMDA,就已經推出好幾年了。
於是,在這樣的大環境下,工程師們不得不面對,而自己費盡心思研究的新技術卻始終無法被採用的挫敗感。
部分員工們表示,他們這幾年一直在建議將聊天功能融入搜尋引擎之中,但並沒有得到回饋。
不過,他們也明白,Google有合理的理由不急於改變自己的搜尋產品。
畢竟,用明確的答案回應用戶的搜索,不僅會壓縮線上廣告的寶貴空間,而且但凡被用戶發現了問題,公司還需要承擔額外的責任。
當然,遭遇這個問題並不只有Google一家公司。
據知情人士透露,Meta的員工也不得不處理公司對不良公關的擔憂。
具體來說就是,在推出新產品或發表研究報告之前,員工必須回答有關公開其工作的潛在風險的問題,包括如果被公眾誤解了怎麼辦。
對此,喬治亞理工學院電腦教授、機器學習專家Mark Riedl表示,從基礎的技術層面來講,ChatGPT可能不一定比Google或Meta更好。
但OpenAI有一個關鍵的優勢:把模型開放給大眾使用。
於是在過去的這兩年裡,OpenAI就能夠源源不絕地接收來自用戶的真實回饋。
例如,給自己滿意的答案「讚」,或「踩一下」那些感覺不恰當的。
而這就是讓ChatGPT變得如此強大的基石-「基於人類回饋的強化學習」(RLHF)。
相比之下,作為被挑戰者的谷歌搜索,在經過四分之一個世紀後,已經被廣告和試圖玩弄系統的行銷人員搞得臃腫不堪。
技術專家Can Duruk指出,「Google長期壟斷的地位,已經讓他們曾經令人信服的搜尋體驗墮落成一個充滿垃圾的、由搜尋引擎驅動的地獄。」
當然,還有一點也很重要──也就我們最初討論的「聲譽風險」。
一位Google員工表示,在公眾眼裡,OpenAI比我們這些大廠更新、更激動人心,而且需要付出的代價也更少,就算搞砸了,也不會受到那麼多批評和審視。
的確,在10年之前,Google就已經是這個領域無可爭議的老大了。
2014年,收購了頂級人工智慧實驗室DeepMind。
2015年,開源了機器學習框架TensorFlow。
到了2016年,Pichai承諾將Google打造成一家「人工智慧優先」(AI first)的公司。
然而,支撐著這些發展背後的人才,卻越來越不「安分」了。
在過去一年左右的時間裡,不少大牛都跳到了更靈活的新創公司,例如OpenAI和Stable Diffusion。
包括Character.AI、Cohere、Adept、Inflection.AI和Inworld AI等等這些圍繞著大規模語言模型建立的新創公司,也都是出自谷歌頂級AI研究人員之手。
此外,還有使用類似模型開發聊天介面的搜尋新創公司,如Google前高階主管Sridhar Ramaswamy經營的Neeva。
其中,Character.AI的創辦人Noam Shazeer,Cohere的共同創辦人Aidan Gomez,更是研發Transformer以及其他核心機器學習架構的關鍵人物。
像Google和微軟這樣的大公司通常都專注於使用人工智慧來改善他們龐大的現有商業模式,Nick Frosst說,他在谷歌大腦工作了三年,然後創立了Cohere,這是一家位於多倫多的新創公司,建立大型語言模型,可以為企業提供客製化服務。他的共同創辦人之一,就是Aidan Gomez。
「這個領域的發展如此迅速,對我來說,領先的人是小公司並不奇怪,」Frosst說。
著名研究科學家David Ha在推特上說:「如果谷歌再不振作起來,開始發布自己的人工智慧產品,就將作為訓練整整一代機器學習研究人員和工程師的『黃埔軍校』載入史冊。」
而這位大佬也在2022年離開Google大腦,加入了明星新創公司Stable Diffusion。
或許,時代可能真的要改變了。
Rumman Chowdhury曾負責Twitter的機器學習倫理團隊,直到馬斯克在11月解散。
Chowdhury表示,由於像Google和Meta這樣的大廠需要爭相追趕OpenAI,因此那些批評家和倫理學家們,會越來越受冷遇。
以上是大佬跳槽,微軟Google大戰!近一個月前的文章竟是「神預言」的詳細內容。更多資訊請關注PHP中文網其他相關文章!