Rumah  >  Artikel  >  Peranti teknologi  >  Anugerah ACL 2024 Diumumkan: Salah satu Kertas Terbaik mengenai Pentafsiran Oracle oleh HuaTech, Anugerah Ujian Masa GloVe

Anugerah ACL 2024 Diumumkan: Salah satu Kertas Terbaik mengenai Pentafsiran Oracle oleh HuaTech, Anugerah Ujian Masa GloVe

王林
王林asal
2024-08-15 16:37:02301semak imbas
本届 ACL 大会,投稿者「收获满满」。

为期六天的 ACL 2024 正在泰国曼谷举办。

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

ACL 是计算语言学和自然语言处理领域的顶级国际会议,由国际计算语言学协会组织,每年举办一次。一直以来,ACL 在 NLP 领域的学术影响力都位列第一,它也是 CCF-A 类推荐会议。

今年的 ACL 大会已是第 62 届,接收了 400 余篇 NLP 领域的前沿工作。昨天下午,大会公布了最佳论文等奖项。此次,最佳论文奖 7 篇(两篇未公开)、最佳主题论文奖 1 篇、杰出论文奖 35 篇。

大会还评出了资源论文奖(Resource Award)3 篇、社会影响力奖(Social Impact Award)3 篇、时间检验奖 2 篇。

此外,本届大会终身成就奖颁给了纽约大学计算机科学系教授 Ralph Grishman。

以下是具体的获奖信息。

最佳论文

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

论文 1:Mission: Impossible Language Models

  • 作者:Julie Kallini, Isabel Papadimitriou, Richard Futrell, Kyle Mahowald, Christopher Potts
  • 机构:斯坦福大学、加州大学尔湾分校、得克萨斯大学奥斯汀分校
  • 论文链接:https://arxiv.org/abs/2401.06416

论文简介:乔姆斯基等人认为:对于人类可能或不可能学会的语言,大型语言模型(LLM)的学习能力是一样的。然而,几乎没有公开的实验证据来支持这种说法。

该研究开发了一组具有不同复杂性的合成语言,每一种都是通过使用不自然的词序和语法规则系统地改变英语数据而设计的,旨在合成人类不可能学会的语言。

该研究进行了广泛的评估实验,以评估 GPT-2 小模型学习这些「不可能语言」的能力,并且在整个训练的不同阶段进行这些评估,以比较每种语言的学习过程。该研究的核心发现是:与英语相比,GPT-2 很难学习「不可能语言」,这挑战了乔姆斯基等人的主张。

更重要的是,该研究希望其方法能够开辟一条富有成效的探究路线,让不同的 LLM 架构在各种「不可能语言」上进行测试,以了解如何将 LLM 用作认知和类型学调查工具。

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

논문 2: 왜 트랜스포머에 민감한 기능이 어려운가요?

  • 저자: Michael Hahn, Mark Rofin
  • 기관: 자를란트 대학교
  • 논문 링크: https://arxiv.org /abs/2402.09963

요약: 실험적 연구에서는 PARITY와 같은 간단한 형식 언어를 계산하는 학습의 지속적인 어려움, 학습의 어려움 등 변환기의 다양한 학습성 편향과 한계가 확인되었습니다. 낮은 수준(낮은 수준) 기능. 그러나 이론적 이해는 여전히 제한적이며 기존의 표현 이론은 현실적인 학습 능력을 과대평가하거나 과소평가합니다.

이 연구는 변환기 아키텍처에서 손실 함수 환경(손실 환경)이 입력 공간의 감도에 의해 제한된다는 것을 증명합니다. 출력이 입력 문자열의 많은 부분에 민감한 변환기는 격리된 위치에 있습니다. 매개변수 공간에 지점을 지정하여 일반화에 낮은 민감도 편향을 초래합니다.

이 연구는 이론이 낮은 민감도 및 낮은 차수에 대한 일반화 편향, 패리티 길이 일반화 어려움과 같은 변환기 학습 기능 및 편향에 대한 광범위한 실험 관찰을 통합한다는 것을 이론적 및 실험적으로 보여줍니다. 이는 변압기의 유도 바이어스를 이해하려면 원칙적으로 표현력뿐만 아니라 손실 기능 환경도 연구해야 함을 의미합니다.

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

문서 3: 확산 모델을 사용한 Oracle Bone Language 해독

  • 저자: Haisu Guan, Huanxin Yang, Xinyu Wang, Shengwei Han 등
  • 기관: 화중대학교 Science and Technology , A Adelaide University, Anyang Normal College, South China University of Technology
  • 논문 링크: https://arxiv.org/pdf/2406.00684

논문 소개: Oracle Bone Script(OBS )는 약 3,000년 전 중국 상왕조에서 유래한 언어 역사의 초석이며, 기존의 많은 문자 체계보다 앞선 것입니다. 수천 개의 비문이 발견되었음에도 불구하고 수많은 신탁 뼈가 해독되지 않은 채 남아 있어 이 고대 언어를 신비의 장막으로 덮고 있습니다. 현대 AI 기술의 출현으로 오라클 디코딩을 위한 새로운 영역이 열리면서 대용량 텍스트 말뭉치에 크게 의존하는 기존 NLP 방법에 도전이 제기되었습니다.

이 기사에서는 이미지 생성 기술을 사용하여 Oracle 해독에 최적화된 확산 모델인 OBSD(Oracle Bone Script Decipher)를 개발하는 새로운 방법을 소개합니다. OBSD는 조건부 확산 전략을 활용하여 Oracle 해독을 위한 중요한 단서를 생성하고 고대 언어에 대한 AI 지원 분석의 새로운 방향을 열었습니다. 연구진은 효율성을 검증하기 위해 오라클 데이터세트를 대상으로 광범위한 실험을 진행했고 정량적 결과를 통해 OBSD의 효율성을 입증했다.

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

문서 4: 암기 프로필의 인과 추정

  • 저자: Pietro Lesci, Clara Meister, Thomas Hofmann, Andreas Vlachos, Tiago Pimentel
  • 기관: 캠브리지 대학교, ETH 취리히 Academy
  • 논문 링크: https://arxiv.org/pdf/2406.04327

논문 소개: 언어 모델의 기억을 이해하는 것은 모델의 훈련 역학을 연구하거나 예방하는 것과 같은 실용적이고 사회적 의미를 갖습니다. 저작권 침해. 이전 연구에서는 기억을 "인스턴스를 사용한 훈련"과 "해당 인스턴스를 예측하는 모델의 능력" 사이의 인과관계로 정의했습니다. 이 정의는 반사실적, 즉 모델이 인스턴스를 보지 못했다면 어떤 일이 일어났을지 관찰하는 능력에 의존합니다. 기존 방법은 그러한 반사실적에 대한 계산적으로 효율적이고 정확한 추정을 제공하는 데 어려움을 겪고 있습니다. 또한 이러한 방법은 일반적으로 특정 모델 인스턴스의 메모리보다는 모델 아키텍처의 메모리를 추정합니다.

이 논문은 계량경제학적 차이 차이 설계를 기반으로 메모리를 추정하는 새롭고 원칙적이며 효율적인 접근 방식을 제안하여 중요한 공백을 메웁니다. 이 방법을 사용하면 연구자들은 모델의 메모리 프로필, 즉 훈련 과정 중 메모리 추세를 설명하기 위해 전체 훈련 과정에서 소수의 인스턴스에 대한 모델 동작만 관찰합니다. Pythia 모델 모음을 사용한 실험에서 그들은 메모리가 (i) 더 큰 모델에서 더 강하고 지속적이고, (ii) 데이터 순서와 학습 속도에 의해 결정되며, (iii) 다양한 모델 크기 추세에 걸쳐 안정적이라는 것을 발견했습니다. 더 큰 모델의 기억은 더 작은 모델로부터 예측할 수 있습니다.

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

논문 5: Aya 모델: 미세 조정된 명령 개방형 액세스 다국어 모델

  • 저자: Ahmet Üstün, Viraat Aryabumi, Zheng Xin Yong, Wei-Yin Ko 등
  • 기관: Cohere, Brown University et al
  • 논문 링크: https://arxiv.org/pdf/2402.07827

논문 소개: 소수의 데이터에 초점을 맞춘 대규모 언어 모델(LLM)의 최근 혁신 -풍부한 언어. 돌파구를 어떻게 다른 언어를 넘어 확장할 수 있습니까? 이 연구에서는 101개 언어에 대한 지침을 따르는 대규모 다국어 생성 언어 모델인 Aya를 소개합니다. 이 중 50% 이상이 리소스가 부족한 것으로 간주됩니다. Aya는 대부분의 작업에서 mT0 및 BLOOMZ보다 성능이 뛰어나며 두 배 더 많은 언어를 처리합니다.

또한 이 연구에서는 최첨단 다중 언어 평가를 99개 언어로 확장하는 광범위한 새로운 평가 제품군을 도입했습니다. 마지막으로, 이 연구는 최적의 미세 조정된 혼합물 구성, 데이터 가지치기, 모델 독성, 편향 및 안전성에 대한 자세한 조사를 제공합니다.

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

문서 6: 반지도 신경 원시 언어 재구성

  • 저자: Liang Lu, Peirong Xie, David R. Mortensen
  • 기관: CMU, Southern California
  • 논문 링크: https://arxiv.org/pdf/2406.05930

수상 이유: 이 획기적인 연구는 역사 언어학에서 원형 언어 재구성 작업을 반자동화하는 것을 목표로 하며, 새로운 반자동화를 제안합니다. 감독 아키텍처. 이 방법은 "모국어-프로토타입" 재구성에 "프로토타입-원어민 언어" 반영 프로세스를 도입함으로써 이전 지도 방법보다 성능이 뛰어납니다. 이 논문은 신경 인코더-디코더와 같은 현대 계산 모델이 언어학에 어떻게 기여할 수 있는지 보여주는 좋은 예입니다.

Anugerah ACL 2024 Diumumkan: Salah satu Kertas Terbaik mengenai Pentafsiran Oracle oleh HuaTech, Anugerah Ujian Masa GloVe

문서 7: 자연어 만족성: 문제 분포 탐색 및 변환기 기반 언어 모델 평가(미공개)

  • 저자: Tharindu Madusanka, Ian Pratt-Hartmann, Riza Batista-Navarro

인용: 이 논문은 논리적 추론을 위한 합성 평가 데이터 세트를 명확하게 설명합니다. 이는 어떤 능력이 측정되고 있는지 명확하지 않은 대규모 추론 데이터 세트를 효과적으로 보완합니다. 이론적으로 일부 하위 집합이 다른 하위 집합보다 더 어려울 것으로 예상하는 이유가 실제로 있으며 이러한 기대는 논문에서 검증되었습니다. 각 카테고리 내에서 저자는 정말 어려운 사례를 샘플링하는 데 특별한 주의를 기울입니다.

Time Test Award

ACL Time Test Award는 자연어 처리 및 전산언어학 분야에 장기적인 영향을 미친 명예 논문을 대상으로 10년 전(2014년)과 25년 전 처음 두 개의 상(1999년)은 연간 최대 두 개의 논문에 수여되었습니다.

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

Article 1 : GloVe : Vecteurs globaux pour la représentation des mots

  • Auteurs : Jeffrey Pennington, Richard Socher, Christopher D. Manning
  • Institution : Université de Stanford
  • Lien de l'article : https:/ / /aclanthology.org/D14-1162.pdf

À propos de l'article : Les méthodes d'apprentissage des représentations spatiales vectorielles des mots ont réussi à capturer des règles sémantiques et syntaxiques fines en utilisant l'arithmétique vectorielle, mais les règles syntaxiques restent restent opaques. Cette étude analyse et clarifie les propriétés que le modèle doit avoir pour que les règles syntaxiques apparaissent dans les vecteurs de mots.

Cette recherche propose un nouveau modèle de régression log-linéaire global - GloVe, conçu pour apprendre les représentations vectorielles des mots. Ce modèle combine les avantages de la factorisation matricielle globale et des méthodes de fenêtre contextuelle locale.

GloVe atteint la meilleure performance de 75 % sur la tâche d'analogie de mots et surpasse les modèles associés sur la tâche de similarité de mots et la reconnaissance d'entités nommées.

Raison du prix : Les intégrations de mots ont été la pierre angulaire des méthodes d'apprentissage profond pour le traitement du langage naturel (NLP) entre 2013 et 2018, et continuent d'exercer une influence significative. Non seulement ils améliorent les performances des tâches de PNL, mais ils ont également un impact significatif sur la sémantique informatique, comme sur la similarité et l’analogie des mots. Les deux méthodes d'intégration de mots les plus influentes sont probablement skip-gram/CBOW et GloVe. Comparé à skip-gram, GloVe a été proposé plus tard. Son avantage relatif réside dans sa simplicité conceptuelle, optimisant la similarité de l'espace vectoriel directement sur la base des caractéristiques de distribution entre les mots, plutôt qu'indirectement en tant qu'ensemble de paramètres dans une perspective de modélisation simplifiée du langage.

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

Article 2 : Mesures de similarité distributionnelle

  • Auteur : Lillian Lee
  • Institution : Cornell University
  • Lien papier : https://aclanthology .org /P99-1004.pdf

À propos de l'article : L'auteur étudie les mesures de similarité de distribution dans le but d'améliorer les estimations de probabilité d'événements de cooccurrence invisibles. Leur contribution est triple : une comparaison empirique d'un large éventail de mesures ; une classification des fonctions de similarité basée sur les informations qu'elles contiennent et l'introduction d'une nouvelle fonction supérieure dans l'évaluation des distributions d'agents sous-jacentes.

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

Lifetime Achievement Award

Le Lifetime Achievement Award de l'ACL est décerné à Ralph Grishman. Ralph Grishman est professeur au Département d'informatique de l'Université de New York, où il se concentre sur la recherche dans le domaine du traitement du langage naturel (NLP). Il est le fondateur du projet Proteus, qui a apporté d'importantes contributions à l'extraction d'informations (IE) et fait progresser ce domaine.

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

Beliau juga membangunkan Java Extraction Toolkit (JET), alat pengekstrakan maklumat yang digunakan secara meluas yang menyediakan komponen analisis berbilang bahasa seperti segmentasi ayat, anotasi entiti bernama, anotasi dan normalisasi ungkapan temporal, penandaan sebahagian daripada pertuturan, penghuraian sebahagian dan Coreference analisis. Komponen ini boleh digabungkan menjadi saluran paip mengikut aplikasi yang berbeza, yang boleh digunakan untuk analisis interaktif ayat tunggal atau analisis kelompok keseluruhan dokumen. Selain itu, JET menyediakan alatan mudah untuk anotasi dan paparan dokumen, dan termasuk proses lengkap untuk pengekstrakan entiti, perhubungan dan peristiwa mengikut spesifikasi ACE (Automatic Content Extraction).

Kerja Profesor Grishman merangkumi pelbagai isu teras dalam NLP dan telah memberi kesan mendalam terhadap teknologi pemprosesan bahasa moden. 

35 篇杰出论文

  • 论文 1:Quantized Side Tuning: Fast and Memory-Efficient Tuning of Quantized Large Language Models
  • 作者:Zhengxin Zhang, Dan Zhao, Xupeng Miao, Gabriele Oliaro, Zhihao Zhang, Qing Li, Yong Jiang, Zhihao Jia
  • 机构:CMU、清华大学、鹏城实验室等
  • 论文链接:https://arxiv.org/pdf/2401.07159

  • 论文 2:L-Eval: Instituting Standardized Evaluation for Long Context Language Models
  • 作者:Chenxin An, Shansan Gong, Ming Zhong, Xingjian Zhao, Mukai Li, Jun Zhang, Lingpeng Kong, Xipeng Qiu
  • 机构:复旦大学、香港大学、伊利诺伊大学厄巴纳 - 香槟分校、上海 AI Lab
  • 论文链接:https://arxiv.org/abs/2307.11088

  • 论文 3:Causal-Guided Active Learning for Debiasing Large Language Models
  • 论文链接:https://openreview.net/forum?id=idp_1Q6F-lC

  • 论文 4:CausalGym: Benchmarking causal interpretability methods on linguistic tasks
  • 作者:Aryaman Arora, Dan Jurafsky, Christopher Potts
  • 机构:斯坦福大学
  • 论文链接:https://arxiv.org/abs/2402.12560

  • 论文 5:Don't Hallucinate, Abstain: Identifying LLM Knowledge Gaps via Multi-LLM Collaboration
  • 作者:Shangbin Feng, Weijia Shi, Yike Wang, Wenxuan Ding, Vidhisha Balachandran, Yulia Tsvetkov
  • 机构:华盛顿大学、加州大学伯克利分校、香港科技大学、CMU
  • 论文链接:https://arxiv.org/abs/2402.00367

  • 论文 6:Speech Translation with Speech Foundation Models and Large Language Models: What is There and What is Missing?
  • 作者:Marco Gaido, Sara Papi, Matteo Negri, Luisa Bentivogli
  • 机构:意大利布鲁诺・凯斯勒基金会
  • 论文链接:https://arxiv.org/abs/2402.12025

  • 论文 7:Must NLP be Extractive?
  • 作者:Steven Bird
  • 机构:查尔斯达尔文大学
  • 论文链接:https://drive.google.com/file/d/1hvF7_WQrou6CWZydhymYFTYHnd3ZIljV/view

  • 论文 8:IRCoder: Intermediate Representations Make Language Models Robust Multilingual Code Generators
  • 作者:Indraneil Paul、Goran Glavaš、Iryna Gurevych
  • 机构:达姆施塔特工业大学等
  • 论文链接:https://arxiv.org/abs/2403.03894

  • 论文 9:MultiLegalPile: A 689GB Multilingual Legal Corpus
  • 作者:Matthias Stürmer 、 Veton Matoshi 等
  • 机构:伯尔尼大学、斯坦福大学等
  • 论文链接:https://arxiv.org/pdf/2306.02069

  • 论文 10:PsySafe: A Comprehensive Framework for Psychological-based Attack, Defense, and Evaluation of Multi-agent System Safety
  • 作者:  Zaibin Zhang 、 Yongting Zhang 、 Lijun Li 、 Hongzhi Gao 、 Lijun Wang 、 Huchuan Lu 、 Feng Zhao 、 Yu Qiao、Jing Shao
  • 机构:上海人工智能实验室、大连理工大学、中国科学技术大学
  • 论文链接:https://arxiv.org/pdf/2401.11880

  • 论文 11:Can Large Language Models be Good Emotional Supporter? Mitigating Preference Bias on Emotional Support Conversation
  • 作者:Dongjin Kang、Sunghwan Kim 等
  • 机构:延世大学等
  • 论文链接:https://arxiv.org/pdf/2402.13211

  • 论文 12:Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models
  • 作者:Paul Röttger 、 Valentin Hofmann 等
  • 机构:博科尼大学、艾伦人工智能研究院等
  • 论文链接:https://arxiv.org/pdf/2402.16786
  • . Universiti Elan, Institut Allen untuk Kecerdasan Buatan

Pautan kertas: https://arxiv.org/pdf/2402.14848
  • Kertas 14: Adakah Llamas dalam Bahasa Inggeris? Transformers
  • Pengarang: Chris Wendler, Veniamin Veselovsky, dsb.
  • Institusi: EPFL

Kertas 15: Menjadi Serius tentang Humor: Mencipta Model Humor
    duri: Zachary Horvitz, Jingru Chen, dsb.
  • Institusi: Columbia University, EPFL
  • Pautan kertas: https://arxiv.org/pdf/2403.00794
  • Tahap 1 Dialek Meramalkan Perjanjian Inter-annotator dalam Set Data Arab Berbilang dialek

Pengarang: Amr Keleg, Walid Magdy , Sharon Goldwater
  • Institusi: University of Edinburgh
  • Pautan kertas: https://arxiv.org /2405.11282
  • Kertas 17: G-DlG: Ke Arah Dlverse berasaskan Gradien dan Pemilihan Data Arahan berkualiti tinggi untuk Terjemahan Mesin

  • u , Yu Lu, Shanbo Cheng
  • Institusi: ByteDance Research
  • Pautan kertas: https: https://arxiv.org/pdf/2405.12915
  • Pautan kertas semakan: https://openreview.net id=9AV_zM56pwj

  • Kertas 19: SPZ: Kaedah Pembesaran Data Berasaskan Gangguan Semantik dengan Pencampuran Zon untuk Pengesanan Penyakit Alzheimer
  • hen Su, Jie Yin
  • paper 20: keserakahan adalah semua yang anda perlukan: Penilaian kaedah Inference Tokenizer: Ben Guri, Negev Ann University, Mit

Authors: Omri Uzan, Craig W. Schmidt, Chris Tanner, Yuval Pinter
  • Pautan kertas: https://arxiv.org/abs/2403.01289
  • Kerumitan Bahasa Ortografik 2. Kekompleksan Resmi 2 Kerumitan Tidak

Institusi: Universiti Notre Dame (AS)
  • Pengarang: Chihiro Taquchi, David Chiang
  • Pautan kertas : https://arxiv.org26.

  • Kertas 22: Pemanduan Llama 2 melalui Penambahan Pengaktifan Kontrastif
  • Institusi: Anthropic, Universiti Harvard, Universiti Göttingen (Jerman), Pusat AI Serasi Manusia, Nicky Rimsky, Pengarang Nicky Nick Julian Schulz, Meg Tong, Evan J Hubinger, Alexander Matt Turner
  • Pautan kertas: https://arxiv.org/abs/2312.06681

  • power Empower-Bahasa Empower: Empower Empower: Empower-Bahasa Empower: Empower-2: Empower 2: Empower Em 2 Agen untuk Mensimulasikan Aktiviti Makroekonomi
  • Institusi: Universiti Tsinghua - Sekolah Siswazah Antarabangsa Shenzhen, Universiti Tsinghua

Pengarang: Nian Li, Chen Gao , Mingyu Li, Yong Li, pautan Qingmin Liao
    : https://pautan. //arxiv.org/abs/2310.10436
  • Kertas 24: M4LE: A Multi-Ability Multi-Julat Pelbagai Tugas Multi-Domain Penanda Aras Penilaian Konteks Panjang
  • Model Bahasa
  • : Universiti China Hong Kong, Makmal Huawei Noah's Ark, Universiti Sains dan Teknologi Hong Kong
Pengarang: Wai-Chung Kwan, Xingshan Zeng, Yufei Wang, Yusen Sun, Liangyou Li, Lifeng Shang, Qun Liu, Kam- Fai Wong
  • Pautan kertas: https://arxiv.org/abs/2310.19240
  • Kertas 25: Argumen CHECKWHY: Pengesahan Fakta Bersebab🜎 : Jiasheng Si, Yibo Zhao, Yingjie Zhu, Haiyang Zhu, Wenpeng Lu, Deyu Zhou
  • Zu Papier 26: Über EFFIZIENT und Statistik. U darmstadt, Apple Inc für große Sprachmodelle kann nach hinten losgehen!

Autor: Zhanhui Zhou, Jie Liu, Zhichen Dong, Jiaheng Liu, Chao Yang, Wanli Ouyang, Yu Qiao
  • Institution: Shanghai Artificial Intelligence Laboratory
  • Link zum Papier: https://arxiv.org/PDF/2402.12343 Khan, Priyam Mehta, Ananth Sankar usw.
  • Institutionen: Nilekani Center bei AI4Bharat, Indian Institute of Technology (Madras), Microsoft usw.
  • Link zum Papier: https://arxiv.org/pdf/ 2403.06350
Institutionen: Universität Turin, Aqua-Tech, Amazon Development Center (Italien) usw.

    Papierlink: https://assets.amazon.science/08/83/9b686f424c89b08e8fa0a6e1d020/multipico-multilingual-perspectivist-irony-corpus.pdf
  • Aufsatz 30: MMToM-QA: Multimodale Theorie der Beantwortung von Geistesfragen
  • Autoren: Chuanyang Jin, Yutong Wu, Jing Cao, jiannan Xiang usw.
Institutionen: New York University, Harvard University, MIT, University of California, San Diego, University of Virginia, Johns Hopkins University

    Link zum Papier: https://arxiv.org/pdf/2401.08743
  • Papier 31: MAP nicht Noch tot: Aufdeckung wahrer Sprachmodellmodi durch Wegkonditionierung der Degeneration
  • Autor: Davis Yoshida, Kartik Goyal, Kevin Gimpel
Institution: Toyota Institute of Technology Chicago, Georgia Institute of Technology

    Link zum Papier: https https://arxiv.org/pdf/2311.08817
  • Aufsatz 33: Die Erde ist flach, weil... der Glaube von LLMs an Fehlinformationen durch überzeugende Gespräche untersucht wird
  • Autoren: Rongwu Xu, Brian S. Lin, Shujian Yang, Tiangi Zhang usw.
Institutionen: Tsinghua University, Shanghai Jiao Tong University, Stanford University, Nanyang Technological University

    Papierlink: https://arxiv.org/pdf/2312.09085
  • Papier.3 4: Let's Go Real Talk: Gesprochenes Dialogmodell für persönliche Gespräche
  • Autor: Se Jin Park, Chae Won Kim, Hyeongseop Rha, Minsu Kim usw.
Institution: Korea Advanced Institute of Science and Technology (KAIST)

    Papierlink: https://arxiv.org/pdf/2406.07867
  • Papier 35: Worteinbettungen sind Steuerelemente für Sprachmodelle
  • Autoren: Chi Han, Ji Aliang Xu, Manling Li, Yi Fung, Chenkai Sun, Nan Jiang, Tarek F. Abdelzaher, Heng Ji
Institution: University of Illinois at Urbana – Champaign

    Link zum Papier: https://arxiv.org/pdf /2305.12798
  • Best Theme Paper Award

    Artikel: OLMo: Accelerating the Science of Language Models

    • Autoren: Dirk Groeneveld, Iz Beltagy usw.
    • Institution: Allen Institute for Artificial Intelligence, University of Washington usw.
    • Link zum Papier: https://arxiv.org/pdf/2402.00838

    Zitat: Diese Arbeit ist ein wichtiger Schritt in Richtung Transparenz und Reproduzierbarkeit beim Training großer Sprachmodelle, etwas, das die Community erreicht. Für den Fortschritt dringend erforderlich (oder zumindest für andere Forscher, die keine Branchenriesen sind).

    Resource Paper Award

    3 Arbeiten haben den Resource Paper Award gewonnen. ??? Perez, Itziar Aldabe, German Rigau, Eneko Agirre, Aitor Ormazabal, Mikel Artetxe, Aitor Soroa

    Link: https://arxiv.org/pdf/2403.20266
    Fall für die Auszeichnung: Dieses Papier beschreibt Die Korpussammlung im Detail, Details zur Datensatzauswertung. Obwohl diese Methodik für die baskische Sprachforschung relevant ist, kann sie auf die Konstruktion großer Modelle für andere ressourcenarme Sprachen ausgeweitet werden. ??
    Autor: Luca Soldaini, Rodney Kinney usw.

      Link: https://arxiv.org/abs/2402.00159
    • Grund für die Auszeichnung: Dieses Papier zeigt die Bedeutung des Datenmanagements bei der Vorbereitung Datensätze zum Training großer Sprachmodelle. Dies liefert sehr wertvolle Erkenntnisse für ein breites Spektrum von Menschen innerhalb der Community.

    Paper 3: AppWorld: Eine kontrollierbare Welt von Apps und Menschen zum Benchmarking interaktiver Codierungsagenten

    Institutionen: State University of New York in Stony Brook, Allen Institute for Artificial Intelligence usw.

      Autoren: Harsh Trivedi, Tushar Khot usw.
    • Link: https://arxiv.org/abs/2407.18901
    • Gründe für die Auszeichnung: Diese Forschung ist sehr wichtig und erstaunlich beim Aufbau interaktiver Umgebungssimulations- und Bewertungsarbeiten. Es wird alle dazu ermutigen, anspruchsvollere dynamische Benchmarks für die Community zu erstellen.

    Social Impact Award

    3 Beiträge haben den Social Impact Award gewonnen.

      Aufsatz 1: Wie Johnny LLMs davon überzeugen kann, sie zu jailbreaken: Überzeugungsarbeit überdenken, um die KI-Sicherheit durch Humanisierung von LLMs herauszufordern
    • Autoren: Yi Zeng, Hongpeng Lin, Jingwen Zhang, Diyi Yang usw .
    • Institutionen: Virginia Tech, Renmin University of China, University of California, Davis, Stanford University

    Papierlink: https://arxiv.org/pdf/2401.06373

    Grund für Auszeichnung: Dieser Artikel befasst sich mit dem Thema KI-Sicherheit – Jailbreaking und untersucht eine Methode, die im Bereich der sozialwissenschaftlichen Forschung entwickelt wurde. Die Forschung ist sehr interessant und hat das Potenzial, erhebliche Auswirkungen auf die Gemeinschaft zu haben.

    Aufsatz 2: DIALECTBENCH: Ein NLP-Benchmark für Dialekte, Varietäten und eng verwandte Sprachen

    Autor: Fahim Faisal, Orevaoghene Ahia, Aarohi Srivastava, Kabir Ahuja usw.

      Institutionen: George Mason University, University of Washington, University of Notre Dame, RC Athena ist ein wichtiger Bereich in NLP und künstlicher Intelligenz. Ein wenig erforschtes Phänomen. Aus sprachlicher und gesellschaftlicher Sicht ist seine Forschung jedoch von äußerst hohem Wert und hat wichtige Implikationen für die Anwendung. Dieses Papier schlägt einen sehr neuartigen Maßstab zur Untersuchung dieses Problems in der LLM-Ära vor.
    • Aufsatz 3: Nach dem Gebet ein Bier trinken? Kulturelle Voreingenommenheit in großen Sprachmodellen messen
    Autor: Tarek Naous, Michael J. Ryan, Alan Ritter, Wei Xu
    Institution: Georgia Institute of Technology

    Link zum Papier: https://arxiv.org/pdf/2305.14456

      Grund für die Auszeichnung: Dieser Artikel verdeutlicht ein wichtiges Thema in der LLM-Ära: kulturelle Voreingenommenheit.Cet article examine la culture et le contexte arabe et montre que nous devons prendre en compte les différences culturelles lors de la conception des LLM. Par conséquent, la même étude peut être reproduite dans d’autres cultures pour généraliser et évaluer si d’autres cultures sont également affectées par ce problème.

Atas ialah kandungan terperinci Anugerah ACL 2024 Diumumkan: Salah satu Kertas Terbaik mengenai Pentafsiran Oracle oleh HuaTech, Anugerah Ujian Masa GloVe. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn