首頁  >  文章  >  科技週邊  >  ACL 2024獎項發表:華科大破解甲骨文最佳論文之一、GloVe時間檢驗獎

ACL 2024獎項發表:華科大破解甲骨文最佳論文之一、GloVe時間檢驗獎

王林
王林原創
2024-08-15 16:37:02421瀏覽
本屆 ACL 大會,投稿者「收穫滿滿」。

為期六天的 ACL 2024 正在泰國曼谷舉辦。

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

ACL 是計算語言學和自然語言處理領域的頂級國際會議,由國際計算語言學協會組織,每年舉辦一次。一直以來,ACL 在 NLP 領域的學術影響力都名列第一,它也是 CCF-A 類推薦會議。

今年的 ACL 大會已是第 62 屆,接收了 400 餘篇 NLP 領域的前沿工作。昨天下午,大會公佈了最佳論文等獎項。此次,最佳論文獎 7 篇(兩篇未公開)、最佳主題論文獎 1 篇、傑出論文獎 35 篇。

大會也評出了資源論文獎(Resource Award)3 篇、社會影響力獎(Social Impact Award)3 篇、時間檢驗獎 2 篇。

此外,本屆大會終身成就獎頒給了紐約大學電腦科學系教授 Ralph Grishman。

以下是具體的獲獎資訊。

最佳論文

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

論文1:

論文1:Missible:s1:Missible
  • 作者:Julie Kallini, Isabel Papadimitriou, Richard Futrell, Kyle Mahowald, Christopher Potts
    機構:史丹佛大學、加州大學爾灣分校、德州大學奧斯汀分校
  • 論文連結:https://arxiv.org/abs/2401.06416

論文簡介:喬姆斯基等人認為:對於人類可能或不可能學會的語言,大型語言模型(LLM)的學習能力是一樣的。然而,幾乎沒有公開的實驗證據來支持這種說法。

研究開發了一組具有不同複雜性的合成語言,每一種都是透過使用不自然的詞序和語法規則系統地改變英語資料而設計的,旨在合成人類不可能學會的語言。

研究進行了廣泛的評估實驗,以評估GPT-2 小模型學習這些「不可能語言」的能力,並且在整個訓練的不同階段進行這些評估,以比較每種語言的學習過程。研究的核心發現是:與英語相比,GPT-2 很難學習「不可能語言」,這挑戰了喬姆斯基等人的主張。

更重要的是,該研究希望其方法能夠開闢一條富有成效的探究路線,讓不同的LLM 架構在各種「不可能語言」上進行測試,以了解如何將LLM 用作認知和類型學調查工具。

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

論文2:Why are Sensitive Functions Hard for Transformers?

  • 作者:Michael Hahn, onn%。 >
  • 機構:薩爾大學
  • 論文連結:https://arxiv.org/abs/2402.09963

論文簡介:實驗研究已經確定了transformer 的一系列可學習性偏置和局限性,例如學習計算PARITY 等簡單形式語言的持續困難,以及對低度( low-degree)函數的偏移。然而,理論理解仍然有限,現有的表達理論要麼高估要麼低估現實的學習能力。

研究證明,在transformer 架構下,損失函數景觀(loss landscape)受到輸入空間靈敏度的限制:輸出對輸入串的許多部分敏感的transformer 位於參數空間中的孤立點,導致泛化中的低靈敏度偏壓。

研究從理論上和實驗上表明,該理論統一了關於transformer 學習能力和偏置的廣泛實驗觀察,例如它們對低靈敏度和低度的泛化偏置,以及奇偶校驗長度泛化的困難。這表明,了解 transformer 的歸納偏壓(inductive biases)不僅需要研究其原則上的表達能力,還需要研究其損失函數景觀。

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

論文3:Deciphering Oracle Bone Language with Diffusion Models

  • 🎜>
  • 作者:Haisu Guan, Huanxin Yang, Xinyu Wang, Shengwei Han 等
  • 機構:華中科技大學、阿德雷德大學、安陽師範學院、華南理工大學
論文連結:https://arxiv.org/pdf/2406.00684


論文簡介:甲骨文(Oracle Bone Script,OBS)起源於約3000 年前的中國商朝,是語言史上的基石,早於許多既定的書寫系統。儘管發現了數千份銘文,但仍有大量的甲骨文未被破譯,從而為這一古老的語言蒙上了一層神秘的面紗。現代 AI 技術的出現為甲骨文破解開闢了新的領域,對嚴重依賴大型文本語料庫的傳統 NLP 方法提出了挑戰。

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖本文介紹了一種採用影像產生技術的新方法,並開發了針對甲骨文破解最佳化的擴散模型 Oracle Bone Script Decipher (OBSD)。利用條件擴散策略,OBSD 為甲骨文破解生成了重要的線索,並為 古代語言的 AI 輔助分析開闢了新方向。為了驗證有效性,研究者在甲骨文資料集上進行了廣泛的實驗,定量結果證明了 OBSD 的有效性。

論文4:Causal Estimation of Memorisation Profiles
  • 機構:劍橋大學、蘇黎世聯邦理工學院
  • 機構:劍橋大學、蘇黎世聯邦理工學院

論文

論文簡介:理解語言模型中的記憶具有實際和社會意義,例如研究模型的訓練動態或防止版權侵權。過去的研究將記憶定義為「使用實例進行的訓練」對「模型預測該實例的能力」的因果關係。這個定義依賴於一個反事實:觀察如果模型沒有看到該實例會發生什麼的能力。現有的方法難以提供這種反事實的計算效率和準確性估計。此外,這些方法通常會估計模型架構的記憶,而不是特定模型實例的記憶。

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

本文填補了一個重要空白,提出了一種基於計量經濟學的差異 - 差異設計來估計記憶的全新、原則性和高效方法。透過這種方法,研究者在整個訓練過程中僅觀察模型在一小部分實例上的行為來描述模型的記憶概況,即其在訓練過程中的記憶趨勢。在使用Pythia 模型套件進行實驗時,他們發現記憶(i) 在較大模型中更強大、更持久,(ii) 由資料順序和學習率決定,以及(iii) 在不同模型大小之間具有穩定的趨勢,因此較大模型中的記憶可以從較小模型中預測出來。
論文5:Aya Model: An Instruction Finetuned Open-Access Multilingual Language Model

  • 作者:Ah Viraat Aryabumi, Zheng Xin Yong, Wei-Yin Ko 等
  • 機構:Cohere、布朗大學等
  • 論文連結:https:// arxiv.org/pdf/2402.07827

論文簡介:大型語言模型(LLM) 的最新突破集中在少數數據豐富的語言上。如何才能將突破的途徑擴展到其他語言之外?該研究引入了 Aya,這是一種大規模多語言生成語言模型,它遵循 101 種語言指令,其中超過 50% 的語言被視為資源較少。 Aya 在大多數任務上的表現都優於 mT0 和 BLOOMZ,同時涵蓋的語言數量是 mT0 和 BLOOMZ 的兩倍。

此外,該研究還引入了廣泛的新評估套件,將多語言評估的最新水平擴展到 99 種語言。最後,該研究對最佳微調混合組成、資料剪枝以及模型的毒性、偏差和安全性進行了詳細調查。

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

論文6:Semisupervised Neural Proto-Language Reconstruction

作者:Liang Lu 、 Peirong Xie 、 David R. Mortensen
  • 機構:CMU、南加州大學
  • 論文連結:https:/ /arxiv.org/pdf/2406.05930
獲獎理由:這項開創性的研究旨在半自動化歷史語言學中的原型語言重構任務,提出了新的半監督架構。透過在「母語 - 原型」重構中引入「原型 - 母語」反射過程,這種方法優於先前的監督方法。這篇論文很好地展示了現代計算模型(如神經編碼 - 解碼器)如何為語言學所做的貢獻。

ACL 2024獎項發表:華科大破解甲骨文最佳論文之一、GloVe時間檢驗獎論文7:Natural Language Satisfiability: Exploring the Problem Distribution and Evaluating Transformer-based Language Models(未公開)


作者:Tharindu Madusanka、Ian Pratt-Hartmann、Riza Batista-Navarro

時間檢驗獎

ACL 時間檢驗獎獎勵的是對自然語言處理獎勵的是對自然語言處理獎勵的是對自然語言處理獎勵的是對自然語言處理獎勵的是對自然語言處理獎勵的是對自然語言處理獎勵的是對自然語言處理獎勵的是對自然語言處理獎勵的是對自然語言處理獎勵的是對自然語言處理獎勵的是對自然語言處理獎勵的是對自然語言處理獎勵的是對自然語言處理獎勵的是對自然語言處理獎勵的是對自然語言處理獎勵和計算語言學領域產生長期影響的榮譽論文,分為10 年前(2014 年)和25 年前(1999 年)兩個獎項,每年最多頒發兩篇論文。
論文1:GloVe: Global Vectors for Word Representation

  • 作者:Jeffrey Pennington, . Manning
  • 機構:史丹佛大學
  • 論文連結:https://aclanthology.org/D14-1162.pdf

論文簡介:學習詞的向量空間表徵的方法已經在使用向量算術捕獲細粒度的語義和句法規則方面取得了成功,但是句法規則仍不透明。研究分析並明確了為了讓句法規則出現在詞向量中,模型需要具備哪些屬性。

研究提出了一個新的全域對數線性迴歸模型 ——GloVe,旨在學習字的向量表徵。此模型結合了全域矩陣分解和局部上下文視窗兩種方法的優點。

GloVe 在詞類比任務上取得了 75% 的最佳性能,並在詞相似性任務和命名實體識別方面優於相關模型。

獲獎理由:詞嵌入是 2013 年至 2018 年間自然語言處理(NLP)深度學習方法的基石,並且持續發揮顯著影響。它們不僅增強了 NLP 任務的效能,而且在計算語意學方面也產生了顯著影響,例如在字詞相似性和類比上。兩種最有影響力的詞嵌入方法可能是 skip-gram/CBOW 和 GloVe。與 skip-gram 相比,GloVe 提出得較晚。它的相對優勢在於概念上的簡單性,直接根據詞之間的分佈特性優化向量空間相似性,而不是從簡化的語言建模角度間接作為一組參數。

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

論文2:Measures of Distributional Similarity

    作者:Lillian Lee
  • 機構:康乃爾大學
  • 論文連結:https://aclanthology .org/P99-1004.pdf

論文簡介:作者研究了分佈相似性度量,目的是提高對未見共現事件的機率估計。他們的貢獻有三個面向:對一系列廣泛的度量方法進行實證比較;基於它們所包含的資訊對相似性函數進行分類;引入了一種新的函數,該函數在評估潛在代理分佈方面更為優越。

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

終身成就獎

ACL 的終身成就獎頒給了 Ralph Grishman。 Ralph Grishman 是紐約大學電腦科學系的教授,專注於自然語言處理(NLP)領域的研究。他是 Proteus Project 的創始人,該計畫在資訊抽取(IE)方面做出了重大貢獻,推動了該領域的發展。

他也發展了Java Extraction Toolkit (JET),這是一個廣泛使用的資訊擷取工具,提供了多種語言分析元件,如句子分割、命名實體標註、時間表達標註與規範化、詞性標註、部分解析和共指分析。這些元件可以根據不同應用組合成管道,既可用於單一句子的交互分析,也可用於整篇文件的批量分析。此外,JET 還提供了簡單工具用於文件的標註和顯示,並包括完整的流程以按照 ACE(自動內容抽取)規範進行實體、關係和事件的抽取。 

Grishman 教授的工作涵蓋了多個 NLP 的核心問題,並對現代語言處理技術產生了深遠的影響。

35 篇傑出論文

  • 論文Side Tuning: Fast and Memory-Efficient Tuning of Quantized Large Language Models
  • 作者:Zhengxin Zhang, Dan Zhao, Xupeng Miao, Gabriele Jia
  • 機構:CMU、清華大學、鵬城實驗室等
論文連結:https://arxiv.org/pdf/ 2401.07159

  • 論文2:L-Eval: Instituting Standardized Evaluation for Con​​s 🎜>
    作者:Chenxin An, Shansan Gong, Ming Zhong, Xingjian Zhao, Mukai Li, Jun Zhang, Lingpeng Kong, Xipeng Qiu
  • 機構:復旦大學、香港大學、伊利諾大學厄巴納- 香檳分校、上海AI Lab
  • 論文連結:https://arxiv.org/abs/2307.11088

  • 論文3:Causal-Guided Active Learning for Debiasing Large Language Models
  • 論文連結:https://openreview.net /forum?id=idp_1Q6F-lC

  • 論文4:CausalGym: Benchmarking causal intermarkingd
  • 作者:Aryaman Arora, Dan Jurafsky, Christopher Potts
  • 機構:史丹佛大學
  • 機構:史丹佛大學
論文連結: https://arxiv.org/abs/2402.12560
  • 論文5:Don't Hallucinate, Abstain Hallucinate Knowledge Gaps via Multi-LLM Collaboration
  • 作者:Shangbin Feng, Weijia Shi, Yike Wang, Wenxuan Ding, Vidhisha Balachandran, Yulia Tsvetkov
論文連結:https://arxiv.org/abs/2402.00367

  • 論文6:Speech Translation with Speech Foundation Models and Large Language Models: What is There and What is Missing?
  • 作者:Marco Gaido, Sara Papi, Matteo Negri, Luisa Bentivogli
  • 機構:義大利布魯諾・凱斯勒基金會
論文
  • 論文7:Must Notive? >
  • 作者:Steven Bird
  • 機構:查爾斯達爾文大學
論文連結:://https:// drive.google.com/file/d/1hvF7_WQrou6CWZydhymYFTYHnd3ZIljV/view

  • 作者:Indraneil Paul、Goran Glavaš、Iryna Gurevych
  • 機構:達姆施塔特工業大學等🎜>
  • 機構:達姆施塔特工業大學等🎜 >
  • 論文連結:https://arxiv.org/abs/2403.03894

  • 論文
  • 作者:Matthias Stürmer 、 Veton Matoshi 等
  • 機構:伯爾尼大學、史丹佛大學、史丹佛大學、史丹佛大學、史丹佛大學、史丹佛大學、史丹佛大學、史丹佛大學、史丹佛大學、史丹佛大學、史丹佛大學、如史丹佛大學、史丹福>
  • 論文連結:https://arxiv.org/pdf/2306.02069

  • 論文:PsySafe: A Comprehensive Framework for Psychological-based Attack, Defense, and Evaluation of Multi-agent System Safety
  • 作者:  Zaibin Zhang 、 Yongting Zhang Zhang ong Lijun Zhang Zhang 、 Huchuan Lu 、 Feng Zhao 、 Yu Qiao、Jing Shao
  • 機構:上海人工智慧實驗室、大連理工大學、中國科學技術大學
  • 論文連結:https://arxiv.org/pdf/2401.11880

  • 論文11:Canargeud Language be Good Emotional Supporter? Mitigating Preference Bias on Emotional Support Conversation
  • 作者:Dongjin Kang、Sunghwan Kim
    作者:Dongjin Kang、Sunghwan Kim
  • 作者:Dongjin Kang、Sunghwan Kim
  • 論文連結:https://arxiv.org/pdf/2402.13211

  • 論文12:Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models
  • 作者:Paul Röttger 、
  • 作者:Paul Röttger 、
  • 作者:Paul Röttger 、Valentin Hofmann 等🎜>機構:博科尼大學、艾倫人工智慧研究院等論文連結:https://arxiv.org/pdf/2402.16786

  • 論文13:Same Task, More Tokens: the Impact of Input Length on the Reasoning Performance of Large Language Models
  • 作者:Mosh Levy 、 Alon Jacoby 、 Yoav Goldberg
  • 機構:巴伊蘭大學、艾倫人工智慧研究院
  • 論文連結:https://arxiv.org/pdf/2402.14848

  • 論文14 inDo>
  • 論文14 inDolamas English? On the Latent Language of Multilingual Transformers
  • 作者:Chris Wendler 、 Veniamin Veselovsky 等
  • 機構:機構:學校桑
論文連結:https://arxiv.org/pdf/2402.10588

  • 論文15:Getting Serious about Humor: Crafting Humor Datasets with Unfunny Large Language Models
  • 作者:Zachary Horvitz 、 Jingru Chen 等
  • 作者:Zachary Horvitz 、 Jingru Chen 等
哥倫比亞大學、洛桑聯邦理工學院

    論文連結:https://arxiv.org/pdf/2403.00794
  • 論文16:Estimating the Level of Dialectness Predicts 呈現- Goldwater
  • 機構:愛丁堡大學
論文連結:https://arxiv.org/pdf/2405.11282

  • 論文17:G-DlG: Towards Gradient-based Dlverse and hiGh >
    作者:Xingyuan Pan, Luyang Huang, Liyan Kang, Zhicheng Liu, Yu Lu, Shanbo Cheng
  • 機構:ByteDance Research
  • 論文連結:https://arxiv.org/pdf/2405.12915

  • 論文18:Media Framing: Atypology and Survey of Computational Approaches Across Disciplines
  • 作者:Yulia Otmakhova, Shima Khanehzar, Lea Frermann
  • 論文連結. net/pdf?id=9AV_zM56pwj

  • 論文19:SPZ: A Semantic Perturbation Zod Data Augmentation-d Data Augment. Mixing for Alzheimer's Disease Detection
  • 作者:FangFang Li、Cheng Huang、PuZhen Su、Jie Yin

  • >
    論文20:Greed is All You Need: An Evaluation of Tokenizer Inference Methods

機構:內蓋夫本・古里安大學、麻省理工學院
  • 作者:Omri Uzan、Craig W.Schmidt、Chris Tanner、Yuval Pinter
  • 論文連結:https://arxiv.org/abs /2403.01289
  • 論文21:Language Complexity and Speech Recocopment, Recottpixel,ott片>
機構:聖母大學(美國)
  • 作者:Chihiro Taquchi、David Chiang
  • 論文連結:https://arxiv.org/abs/2406.09202
  • 論文22:Steering Llamering Llamle via 1] 🎜>
  • 機構:Anthropic、哈佛大學、哥廷根大學(德國)、 Center for Human-Compatible AI

作者:Nina Rimsky、Nick Gabrieli、Julian Schulz、Meg Tong、Evan J Hubinger、Alexander Matt Turner
  • 論文連結:https://arxiv.org/abs/2312.06681
  • 論文23:EconAgent: Large Language Model-Empowered Agents for Simulating Macroeconomic Activities

  • 作者:Nian Li、Chen Gao、Mingyu Li、Yong Li、Qingmin Liao
    • 論文連結: https://arxiv.org/abs/2310.10436
    • 論文24:M4LE:A Multi-Ability Multi-Rang Multie Multi-Task Multi-Domain Long-Context Evaluation Benchmark for Large Language Models
    • 機構:香港中文大學、華為諾亞方舟實驗室、香港科技大學

    作者:Wai-Chung Kwan、Xingshan Zeng、Yufei Wang、Yusen Sun、Liangyou Li、Lifeng Shang、Qun Liu、Kam-Fai Wong
    • 論文連結:https ://arxiv.org/abs/2310.19240
    • 論文25:CHECKWHY:論文25:CHECKWHY: Causal Fact Verific >作者:Jiasheng Si、Yibo Zhao、Yingjie Zhu、Haiyang Zhu、Wenpeng Lu、Deyu Zhou

    • 論文26:On Efficient and Statistical Quality Estimation for Data Annotation
    • Ag Klie,Juan Haladjian,Marc Kirchner,Rahul Nair
    • 機構:UKP Lab,、TU Darmstadt 、蘋果公司
    • 論文連結:https:https //arxiv.org/pdf/2405.11919

    • 論文27:Emulated Disalignment: Safety Alignment for Tignments Lfireignment: Safetyity !
    • 作者:Zhanhui Zhou, Jie Liu, Zhichen Dong, Jiaheng Liu, Chao Yang, Wanli Ouyang, Yu Qiao
    • 論文連結:https://arxiv.org/pdf/2402.12343

      論文28:IndicLLMSuite: A Blueprint for Creating Pre-training and Fine-Tuning Datasets for Indian Languages
    • 作者:Mohammed Safi Ur Rahman Khan, Priyam Mehta, Ananth Sankar 等
    • 機構:Nilekani Centre at AI4Bharat、印度理工學院(馬德拉斯)、微軟等
    • 論文連結:https ://arxiv.org/pdf/2403.06350

      論文29:MultiPIPI:C. 🎜>
    • 作者:Silvia Casola, Simona Frenda, Soda Marem Lo, Erhan Sezerer等
    • 機構:都靈大學、aequa-tech、亞馬遜開發中心(義大利🎜>
      機構:都靈大學、aequa-tech、亞馬遜開發中心(義大利)等
    • 論文連結:https://assets.amazon.science/08/83/9b686f424c89b08e8fa0a6e1d020/multipico-multilingualual-perspecti-m-molm
    論文30:MMToM-QA: Multimodal Theory of Mind Question Answering
    • 作者:
    • 機構:紐約大學、哈佛大學、MIT、加州大學聖迭戈分校、維吉尼亞大學、約翰霍普金斯大學
    • 論文連結:https://arxiv.org/pdf/2401.08743

      31:MAP's not dead yet: Uncovering true language model modes by conditioning away degeneracy
    • 作者:Davis Yoshida, Kartik Goyal, Kevin Gt.機構:豐田工業大學芝加哥分校、喬治亞理工學院
    • 論文連結:https://arxiv.org/pdf/2311.08817
    論文32:NounAtlas: Filling the Gap in Nominal Semantic Role Labeling

      作者:Roberto Navig, Marcogo等等
    論文33:The Earth is Flat because.. lnvestigating LLMs' Belief towardss. 🎜>

    作者:Rongwu Xu, Brian S. Lin, Shujian Yang, Tiangi Zhang等
    • 機構:清華大學、上海交通大學、史丹佛大學、南洋理工大學
    • 論文連結:https://arxiv.org/pdf/2312.09085


      >
    • 論文34:Let's Go Real Talk: Spoken Dialogue Model for Face-to-Face Conversation
    • 作者:Se Jin Park, Chae Won Kim, Hyeongseop Rha, Minsusu等
    • 機構:韓國科學技術院(KAIST)
    • 論文連結:https://arxiv.org/pdf/2406.07867

    論文35:Word Embeddings Are Steers for Language Models

    筆>ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖作者, Jialiang Xu, Manling Li, Yi Fung, Chenkai Sun, Nan Jiang, Tarek F. Abdelzaher, Heng Ji

    機構:伊利諾大學厄巴納- 香檳分校機構:伊利諾大學厄巴納- 香檳分校機構:伊利諾大學。 >論文連結:https://arxiv.org/pdf/2305.12798最佳主題論文獎
    論文:OLMo:Accelerating the Science of Language Models

    • 作者:Dirk Groeneveld. >
    • 機構:艾倫人工智慧研究院、華盛頓大學等
    • 論文連結:https://arxiv.org/pdf/2402.00838

    獲獎理由:這項工作是朝著大型語言模型訓練的透明性和可重複性邁出的重要一步,這是社區在取得進展(或至少為了讓非產業巨頭的其他研究者也能貢獻進展)方面急需的。 

    資源論文獎

    3 篇論文取得論文。

    論文1:Latxa: An Open Language Model and Evaluation Suite for Basque
    機構:西班牙巴斯克大學

    • 作者:Julen Etxaniz、Oscar Sainz、Naiara Perez、Itziar Aldabe、German Artigau、Eneko Agirk、Naiara Perez、Itziar Aldabe、German Artigau、Eneko AgirT、Aitorl、Eneko Agirk、Aitor Aitor Soroa
    • 連結:https://arxiv.org/pdf/2403.20266

    :論文細緻描述了語料收集、資料集評估的細節。儘管是巴斯克語言相關研究,此方法論可擴展到其他低資源語言大模型的建構。

    論文2:Dolma: an Open Corpus of Three Trillion Tokens for Language Model Pretraining Research

    • >
    機構:艾倫研究院、加州柏克萊大學等

    作者:Luca Soldaini、Rodney Kinney 等

    連結:https://arxiv.org/abs/2402.00159

    獲獎理由:論文展示了訓練大語言模型準備資料集時資料管理的重要性。這為社區內廣大人群提供了非常有價值的洞見。
    • 論文3:AppWorld: A Controllable World of Apps and People for Benchmarking Interactive Coding Agents
    機構:紐約州立大學石溪分校、艾倫人工智慧研究院等

    作者:Harsh Trivedi, Tushar Khot 等
    作者:Harsh Trivedi, Tushar Khot 等
    作者:Harsh Trivedi, Tushar Khot 等
    作者:Harsh Trivedi, Tushar Khot 等
    作者:Harsh Trivedi, Tushar Khot 等

    連結:https://arxiv.org/abs/2407.18901

    獲獎理由:研究是建構互動環境模擬與評估方面非常重要、驚豔的工作。它將鼓勵大家為社區多多產出硬核動態基準。

    • 社會影響力獎
    • 3 篇論文獲得 Social Impact Award。
    論文1:How Johnny Can Persuade LLMs to Jailbreak Them: Rethinking Persuasion to Challenge AI Safety by Humanizing LLMs

    作者:Yi Zeng, Hongpeng Lin, Jingwen Zhang, Diyi Yang等

    機構:維吉尼亞理工大學、中國人民大學、加州加州大學戴維斯分校、史丹佛大學
    論文連結:https://arxiv.org/pdf/2401.06373
    • 獲獎理由:本文探討了AI 安全主題— 越獄,研究了社會科學研究領域內開發的一種方法。該研究非常有趣,並有可能對社區產生重大影響。
    • 論文2:DIALECTBENCH: A NLP Benchmark for Dialects, Varieties, and Closely-Related Languages

    作者:Fahim Faisal, Orevaoghene Ahia, Aarohi Srivastava, Kabir Ahuja 等

    機構:喬治梅森大學、華盛頓大學、聖母大學、RC Athena
    論文連結:https://arxiv.org/pdf/2403.11009
    • 得獎理由:方言變異是NLP 和人工智慧領域未能充分研究的現象。然而,從語言和社會的角度來看,它的研究具有極高的價值,對應用也有重要的影響。本文提出了一個非常新穎的基準來研究 LLM 時代的這個問題。
    • 論文3:Having Beer after Prayer? Measuring Cultural Bias in Large LanguageModels

    作者:Tarek Naous, Michael J. Ryan, Alan Ritter, Wei Xu機構:喬治亞理工學院論文連結:https://arxiv.org/pdf/2305.14456獲獎理由:本文展示了LLM 時代的一個重要問題:文化偏見。本文研究了阿拉伯文化和語言環境,結果表明,在設計 LLM 時,我們需要考慮文化差異。因此,同樣的研究可以複製到其他文化中,以概括和評估其他文化是否也受到這個問題的影響。

以上是ACL 2024獎項發表:華科大破解甲骨文最佳論文之一、GloVe時間檢驗獎的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn