首頁  >  文章  >  科技週邊  >  AI論文「高引用轉換率」排名出爐:OpenAI第一,曠視第二,Google位居第九

AI論文「高引用轉換率」排名出爐:OpenAI第一,曠視第二,Google位居第九

WBOY
WBOY轉載
2023-04-11 21:01:011704瀏覽

為了弄清楚這個問題,美國Zeta Alpha平台統計了2020-2022三年之間全世界引用次數前100的AI論文,得出了一些很有意思的結果。

AI論文「高引用轉換率」排名出爐:OpenAI第一,曠視第二,Google位居第九

例如:

「當紅明星」OpenAI,在論文引用次數最多的機構中名列第9。

然而,在論文發表數量最多的機構名單上,根本找不到它的名字。

再比如,來自工業界的GoogleMeta微軟總是在各項數據都名列前茅,然而總的看下來,學術界也並沒有落後工業界。

此外,先前關於「中國AI研究的產出數量和品質可能超過美國」的觀點在這份報告中似乎也被破解——

#更多以及具體的數據,我們一個接一個來看。

中國第二,OpenAI、DeepMind品質取勝

在具體分析之前,Zeta Alpha先統計出了2020-2022每年引用次數最多的論文,它們分別是:

2022年:

1、AlphaFold Protein Structure Database: Massively expanding the structural coverage of protein-sequence space with high-accuracy models

引用次數:1372
機構:DeepMind
主題:利用AlphaFold增加蛋白質結構資料庫的覆蓋範圍

2、ColabFold: making protein folding accessible to all

引用次數:1162
機構:多家合作完成
主題:一個開源且高效的蛋白質折疊模型

3、Hierarchical Text-Conditional Image Generation with CLIP Latents

引用次數:718
機構:OpenAI
主題: DALL·E 2

4、A ConvNet for the 2020s

#引用次數:690
機構:Meta與UC伯克利大學
主題:在Transformer繁榮時期成功實現CNN現代化

5、PaLM: Scaling Language Modeling with Pathways

引用次數:452
機構:Google
主題:Google的540B大型語言模型,一個新的MLOps範式,包含它的實現過程

2021年

1、Highly accurate protein structure prediction with AlphaFold

引用次數:8965
機構:DeepMind
主題:AlphaFold,利用深度學習進行蛋白質結構預測的巨大突破

2、Swin Transformer: Hierarchical Vision Transformer using Shifted Windows

##引用次數:4810

機構:微軟
主題:ViT的強大變體

3、Learning Transferable Visual Models From Natural Language Supervision

引用次數:3204

機構:OpenAI
主題:CLIP

4、On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?

引用次數:1266

機構:美國華盛頓,Black in AI,The Aether
主題:著名的立場論文,對不斷增長的語言模型的趨勢持批評態度,強調了它們的局限性和危險

5、Emerging Properties in Self-Supervised Vision Transformers

引用次數:1219

機構:Meta
主題:DINO,揭示了圖像的自監督如何導致Transformers中出現某種原型物件分割

2020年:

1、An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale

引用次數:11914

機構:Google
主題:第一個展示普通Transformer如何在電腦視覺領域中表現出色的作品

2、Language Models are Few-Shot Learners

引用次數:8070

機構:OpenAI
主題:GPT-3

3、YOLOv4: Optimal Speed and Accuracy of Object Detection

引用次數:8014

機構:中國台灣「中研院」
主題:YOLOv4

4、Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer

#引用次數:5906

機構:Google
主題:對Transformer的遷移學習進行了嚴格的研究,產生了著名的T5

5、Bootstrap your own latent: A new approach to self- supervised Learning

引用次數:2873

機構:DeepMind和帝國學院
主題:顯示negative對於表徵學習來說不是必需的

想必大家能從中找到不少「熟悉的面孔」。

接著,Zeta Alpha就對近三年的高引用論文背後的資訊進行了一番分析。

首先是「每年論文引用次數進前100最多」的國家(地區)。

AI論文「高引用轉換率」排名出爐:OpenAI第一,曠視第二,Google位居第九

可以看到美國強勢第一,中國與之的差距比較明顯。

因此Zeta Alpha也認為,先前關於「中國在AI方面的研究可能超過美國」的說法至少在這項數據上是不成立的。

除此之外,新加坡和澳洲的排名也比較出人意料,分別為第五和第六。

“為了正確評估美國的主導地位”,Zeta Alpha又換了一種統計方式,計算引用次數前100的百分比。

AI論文「高引用轉換率」排名出爐:OpenAI第一,曠視第二,Google位居第九

當然,美國仍然第一,但可以看到三年間的佔比下降。

英國是中美以外最大的競爭對手,不過英國表現突出的2022年,其實主要都是由DeepMind貢獻的(佔69%)。

接下來是依照組織或機構評比論文引用次數進前100最多的個體。

AI論文「高引用轉換率」排名出爐:OpenAI第一,曠視第二,Google位居第九

不太意外,Google與Meta微軟分列前三,接著是UC柏克萊、DeepMind和史丹佛。

OpenAI也收穫了一個還不錯的名次,第九。第十是MIT,第十一是清華大學。

儘管前三名選手都來自工業界,但是如果只按照機構類型來分,學術界和它的表現其實基本上不相上下。

AI論文「高引用轉換率」排名出爐:OpenAI第一,曠視第二,Google位居第九

再接著,是過去三年各組織或機構發表的論文總數排名。

AI論文「高引用轉換率」排名出爐:OpenAI第一,曠視第二,Google位居第九

老大還是Google。第二名比較亮眼,是清華大學,接著是微軟、CMU、MIT、史丹佛、UC柏克萊、北京大學(第八)、Meta……

#可以看到,前十名隸屬於學術界的機構或組織佔據了大片江山。

而我們找了半天,也沒有看到OpenAI和DeepMind的名字--

#顯然它們發表的論文數量較少,主要靠品質取勝。

為了驗證這個猜測,Zeta Alpha也做了一個高引論文轉換率的排名。

AI論文「高引用轉換率」排名出爐:OpenAI第一,曠視第二,Google位居第九

果不其然,OpenAI摘得桂冠,DeepMind獲得第三。

當然,Meta也不錯,第四,引得LeCun都出來「現身說法」了一下:

我們Meta確實是更注重質量而不是數量的。

AI論文「高引用轉換率」排名出爐:OpenAI第一,曠視第二,Google位居第九

相比之下,高引多但發得更多的Google才排第九,差點出前10。

除了這幾位,第二名也是亮點──它就是曠視。

以及國內還有商湯也上榜了。

附2022引用Top100完整名單

ChatGPT的火著實盤活了AI產業,最新前沿研究究竟會指向哪些方向?我們也需要更加敏銳地進行觀察。

為此,Zeta Alpha也給出了2022年引用進100的所有AI論文的名單,或許對大家有所啟發。

1-30:

AI論文「高引用轉換率」排名出爐:OpenAI第一,曠視第二,Google位居第九

#31-60:

AI論文「高引用轉換率」排名出爐:OpenAI第一,曠視第二,Google位居第九

##61-90:

AI論文「高引用轉換率」排名出爐:OpenAI第一,曠視第二,Google位居第九

#91-100:

AI論文「高引用轉換率」排名出爐:OpenAI第一,曠視第二,Google位居第九

##那麼,Zeta Alpha這份報告的全部內容就是這些。

原文可戳:

https://www.php.cn/link/ea20aed6df7caa746052d227d194a395

#

以上是AI論文「高引用轉換率」排名出爐:OpenAI第一,曠視第二,Google位居第九的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除