>기술 주변기기 >일체 포함 >ACL 2024 시상식 발표: HuaTech의 Oracle 해독에 관한 최고의 논문 중 하나, GloVe Time Test Award

ACL 2024 시상식 발표: HuaTech의 Oracle 해독에 관한 최고의 논문 중 하나, GloVe Time Test Award

王林
王林원래의
2024-08-15 16:37:02432검색
이 ACL 컨퍼런스에서 기여자들은 많은 것을 얻었습니다.

ACL 2024가 6일간 태국 방콕에서 개최됩니다.

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

ACL은 전산언어학 및 자연어처리 분야 최고의 국제학술대회로 국제전산언어학회(International Association for Computational Linguistics)가 주최하고 매년 개최됩니다. ACL은 NLP 분야 학술 영향력 1위에 늘 자리해 왔으며, CCF-A 추천 컨퍼런스이기도 합니다.

올해로 62회를 맞이한 ACL 컨퍼런스에는 NLP 분야의 최신 저서가 400편 이상 접수되었습니다. 어제 오후 컨퍼런스에서는 최우수 논문과 기타 상을 발표했습니다. 이번에 최우수 논문상 7개(미출판 2개), 최우수 주제논문상 1개, 우수논문상 35개를 수상했다.

이 컨퍼런스에서는 또한 3개의 리소스 상, 3개의 사회적 영향 상, 2개의 타임 테스트 상을 수상했습니다.

또한 이번 컨퍼런스의 평생공로상은 뉴욕대학교 컴퓨터공학과의 Ralph Grishman 교수에게 수여되었습니다.

다음은 구체적인 당첨정보입니다.

우수 논문

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

논문 1: Mission: Impossible Language Models

  • 저자: Julie Kallini, Isabel Papadimitriou, Richard Futrell, Ky 르 마호왈드, 크리스토퍼 포츠
  • 기관: Stanford University, University of California, Irvine, University of Texas at Austin
  • 논문 링크: https://arxiv.org/abs/2401.06416

논문 소개: Chomsky et al. LLM(대형 언어 모델)은 인간이 학습할 수도 있고 학습하지 못할 수도 있는 언어에 대해 동일한 학습 능력을 가지고 있다고 믿어집니다. 그러나 이 주장을 뒷받침하는 발표된 실험적 증거는 거의 없습니다.

이 연구는 인간이 언어를 배울 수 없는 것을 합성하려는 목적으로 부자연스러운 단어 순서와 문법 규칙을 사용하여 영어 데이터를 체계적으로 변경하여 각각 설계된 다양한 복잡성의 합성 언어 세트를 개발했습니다.

이 연구에서는 이러한 "불가능한 언어"를 학습하는 GPT-2 소형 모델의 능력을 평가하기 위해 광범위한 평가 실험을 수행했으며, 각 언어의 학습 과정을 비교하기 위해 훈련 전반에 걸쳐 여러 단계에서 이러한 평가를 수행했습니다. 이번 연구의 핵심 발견은 GPT-2가 영어에 비해 '불가능한 언어'를 배우기 어렵다는 것이며, 이는 촘스키 등의 주장에 도전하는 것입니다.

더 중요한 점은 연구에서 이 접근 방식이 유익한 탐구 라인을 열어 다양한 LLM 아키텍처를 다양한 "불가능한 언어"에서 테스트하여 LLM이 인지 및 유형 조사 도구로 어떻게 사용될 수 있는지 이해할 수 있기를 희망한다는 것입니다. .

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

논문 2: 왜 트랜스포머에 민감한 기능이 어려운가요?

  • 저자: Michael Hahn, Mark Rofin
  • 기관: 자를란트 대학교
  • 논문 링크: https://arxiv.org /abs/2402.09963

요약: 실험적 연구에서는 PARITY와 같은 간단한 형식 언어를 계산하는 학습의 지속적인 어려움, 학습의 어려움 등 변환기의 다양한 학습성 편향과 한계가 확인되었습니다. 낮은 수준(낮은 수준) 기능. 그러나 이론적 이해는 여전히 제한적이며 기존의 표현 이론은 현실적인 학습 능력을 과대평가하거나 과소평가합니다.

이 연구는 변환기 아키텍처에서 손실 함수 환경(손실 환경)이 입력 공간의 감도에 의해 제한된다는 것을 증명합니다. 출력이 입력 문자열의 많은 부분에 민감한 변환기는 격리된 위치에 있습니다. 매개변수 공간에 지점을 지정하여 일반화에 낮은 민감도 편향을 초래합니다.

이 연구는 이론이 낮은 민감도 및 낮은 차수에 대한 일반화 편향, 패리티 길이 일반화 어려움과 같은 변환기 학습 기능 및 편향에 대한 광범위한 실험 관찰을 통합한다는 것을 이론적 및 실험적으로 보여줍니다. 이는 변압기의 유도 바이어스를 이해하려면 원칙적으로 표현력뿐만 아니라 손실 기능 환경도 연구해야 함을 의미합니다.

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

문서 3: 확산 모델을 사용한 Oracle Bone Language 해독

  • 저자: Haisu Guan, Huanxin Yang, Xinyu Wang, Shengwei Han 등
  • 기관: 화중대학교 Science and Technology , A Adelaide University, Anyang Normal College, South China University of Technology
  • 논문 링크: https://arxiv.org/pdf/2406.00684

논문 소개: Oracle Bone Script(OBS )는 약 3,000년 전 중국 상왕조에서 유래한 언어 역사의 초석이며, 기존의 많은 문자 체계보다 앞선 것입니다. 수천 개의 비문이 발견되었지만 수많은 신탁 뼈가 해독되지 않은 채 남아 있어 이 고대 언어를 신비의 장막으로 덮고 있습니다. 현대 AI 기술의 출현으로 오라클 디코딩을 위한 새로운 영역이 열리면서 대용량 텍스트 말뭉치에 크게 의존하는 기존 NLP 방법에 도전이 제기되었습니다.

이 기사에서는 이미지 생성 기술을 사용하여 Oracle 해독에 최적화된 확산 모델인 OBSD(Oracle Bone Script Decipher)를 개발하는 새로운 방법을 소개합니다. OBSD는 조건부 확산 전략을 활용하여 Oracle 해독을 위한 중요한 단서를 생성하고 고대 언어에 대한 AI 지원 분석의 새로운 방향을 열었습니다. 연구진은 효율성을 검증하기 위해 오라클 데이터세트를 대상으로 광범위한 실험을 진행했고 정량적 결과를 통해 OBSD의 효율성을 입증했다.

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

문서 4: 암기 프로필의 인과 추정

  • 저자: Pietro Lesci, Clara Meister, Thomas Hofmann, Andreas Vlachos, Tiago Pimentel
  • 기관: 캠브리지 대학교, ETH 취리히 Academy
  • 논문 링크: https://arxiv.org/pdf/2406.04327

논문 소개: 언어 모델의 기억을 이해하는 것은 모델의 훈련 역학을 연구하거나 예방하는 것과 같은 실용적이고 사회적 의미를 갖습니다. 저작권 침해. 이전 연구에서는 기억을 "인스턴스를 사용한 훈련"과 "해당 인스턴스를 예측하는 모델의 능력" 사이의 인과관계로 정의했습니다. 이 정의는 반사실적, 즉 모델이 인스턴스를 보지 못했다면 어떤 일이 일어났을지 관찰하는 능력에 의존합니다. 기존 방법은 그러한 반사실적에 대한 계산적으로 효율적이고 정확한 추정을 제공하는 데 어려움을 겪고 있습니다. 또한 이러한 방법은 일반적으로 특정 모델 인스턴스의 메모리보다는 모델 아키텍처의 메모리를 추정합니다.

이 논문은 계량경제학적 차이 차이 설계를 기반으로 메모리를 추정하는 새롭고 원칙적이며 효율적인 접근 방식을 제안하여 중요한 공백을 메웁니다. 이 방법을 사용하면 연구자들은 모델의 메모리 프로필, 즉 훈련 과정 중 메모리 추세를 설명하기 위해 전체 훈련 과정에서 소수의 인스턴스에 대한 모델 동작만 관찰합니다. Pythia 모델 모음을 사용한 실험에서 그들은 메모리가 (i) 더 큰 모델에서 더 강하고 지속적이고, (ii) 데이터 순서와 학습 속도에 의해 결정되며, (iii) 다양한 모델 크기 추세에 걸쳐 안정적이라는 것을 발견했습니다. 더 큰 모델의 기억은 더 작은 모델로부터 예측할 수 있습니다.

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

논문 5: Aya 모델: 미세 조정된 명령 개방형 액세스 다국어 모델

  • 저자: Ahmet Üstün, Viraat Aryabumi, Zheng Xin Yong, Wei-Yin Ko 등
  • 기관: Cohere, Brown University et al
  • 논문 링크: https://arxiv.org/pdf/2402.07827

논문 소개: 소수의 데이터에 초점을 맞춘 대규모 언어 모델(LLM)의 최근 혁신 -풍부한 언어. 돌파구를 어떻게 다른 언어를 넘어 확장할 수 있습니까? 이 연구에서는 101개 언어에 대한 지침을 따르는 대규모 다국어 생성 언어 모델인 Aya를 소개합니다. 이 중 50% 이상이 리소스가 부족한 것으로 간주됩니다. Aya는 대부분의 작업에서 mT0 및 BLOOMZ보다 성능이 뛰어나며 두 배 더 많은 언어를 처리합니다.

또한 이 연구에서는 최첨단 다중 언어 평가를 99개 언어로 확장하는 광범위한 새로운 평가 제품군을 도입했습니다. 마지막으로, 이 연구는 최적의 미세 조정된 혼합물 구성, 데이터 가지치기, 모델 독성, 편향 및 안전성에 대한 자세한 조사를 제공합니다.

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

문서 6: 반지도 신경 원시 언어 재구성

  • 저자: Liang Lu, Peirong Xie, David R. Mortensen
  • 기관: CMU, Southern California
  • 논문 링크: https://arxiv.org/pdf/2406.05930

수상 이유: 이 획기적인 연구는 역사 언어학에서 원형 언어 재구성 작업을 반자동화하는 것을 목표로 하며, 새로운 반자동화를 제안합니다. 감독 아키텍처. 이 방법은 "모국어-프로토타입" 재구성에 "프로토타입-원어민 언어" 반영 프로세스를 도입함으로써 이전 지도 방법보다 성능이 뛰어납니다. 이 논문은 신경 인코더-디코더와 같은 현대 계산 모델이 언어학에 어떻게 기여할 수 있는지 보여주는 좋은 예입니다.

ACL 2024 시상식 발표: HuaTech의 Oracle 해독에 관한 최고의 논문 중 하나, GloVe Time Test Award

문서 7: 자연어 만족성: 문제 분포 탐색 및 변환기 기반 언어 모델 평가(미공개)

  • 저자: Tharindu Madusanka, Ian Pratt-Hartmann, Riza Batista-Navarro

인용: 이 논문은 논리적 추론을 위한 합성 평가 데이터 세트를 명확하게 설명합니다. 이는 어떤 능력이 측정되고 있는지 명확하지 않은 대규모 추론 데이터 세트를 효과적으로 보완합니다. 이론적으로 일부 하위 집합이 다른 하위 집합보다 더 어려울 것으로 예상하는 이유가 실제로 있으며 이러한 기대는 논문에서 검증되었습니다. 각 카테고리 내에서 저자는 정말 어려운 사례를 샘플링하는 데 특별한 주의를 기울입니다.

Time Test Award

ACL Time Test Award는 자연어 처리 및 컴퓨터 언어학 분야에 장기적인 영향을 미친 명예 논문을 10년 전(2014년)과 25년 전 처음 두 개의 상(1999년)은 연간 최대 두 개의 논문에 수여되었습니다.

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

페이퍼 1: GloVe: 단어 표현을 위한 전역 벡터 저자: Jeffrey Pennington, Richard Socher, Christopher D. Manning

기관: Stanford University :https://aclanthology.org/D14-1162.pdf
  • 논문 소개: 벡터 학습 단어 공간 표현적 접근 방식은 벡터 산술을 사용하여 세밀한 의미 및 구문 규칙을 포착하는 데 성공했지만 구문 규칙은 여전히 ​​불투명합니다. 본 연구에서는 단어 벡터에 구문 규칙이 나타나기 위해 모델이 어떤 속성을 가져야 하는지 분석하고 명확히 합니다.
  • 이 연구는 단어의 벡터 표현을 학습하도록 설계된 새로운 전역 로그 선형 회귀 모델인 GloVe를 제안합니다. 이 모델은 전역 행렬 분해와 로컬 컨텍스트 창 방법의 장점을 결합합니다.

GloVe는 단어 유추 작업에서 75%의 최고 성능을 달성하고 단어 유사성 작업 및 명명된 엔터티 인식에서 관련 모델을 능가합니다.

인용: 단어 임베딩은 2013년부터 2018년까지 자연어 처리(NLP)를 위한 딥 러닝 방법의 초석이었으며 계속해서 중요한 영향을 미치고 있습니다. NLP 작업의 성능을 향상시킬 뿐만 아니라 단어 유사성 및 유추와 같은 계산 의미론에도 중요한 영향을 미칩니다. 가장 영향력 있는 두 가지 단어 임베딩 방법은 아마도 Skip-gram/CBOW와 GloVe일 것입니다. 스킵그램과 비교하여 GloVe는 나중에 제안되었다. 상대적인 장점은 개념적 단순성에 있으며, 단순화된 언어 모델링 관점에서 매개변수 집합으로 간접적으로 사용하는 것이 아니라 단어 간의 분포 특성을 직접 기반으로 벡터 공간 유사성을 최적화합니다. #🎜🎜 ##### 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜#논문 2: 분배 유사성의 측정#🎜🎜 ## 🎜🎜 ##🎜 🎜#

저자: Lillian Lee
기관: 코넬 대학교
#🎜 🎜#
페이퍼 링크: https://aclanthology.org/P99-1004.pdf

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖

# 🎜🎜#

ACL 2024奖项公布:华科大破译甲骨文最佳论文之一、GloVe时间检验奖 논문 소개: 저자는 보이지 않는 동시 발생 사건의 확률 추정치를 향상시키기 위한 목적으로 분포 유사성 측정을 연구합니다. 이들의 기여는 세 가지입니다: 광범위한 측정값의 경험적 비교, 포함된 정보를 기반으로 한 유사성 기능 분류, 기본 에이전트 분포를 평가하는 데 탁월한 새로운 기능 도입.

평생공로상
  • #🎜 🎜 #ACL 평생 공로상은 Ralph Grishman에게 돌아갑니다. Ralph Grishman은 뉴욕대학교 컴퓨터공학과 교수로 자연어 처리(NLP) 분야 연구에 주력하고 있습니다. 그는 정보 추출(IE)에 지대한 공헌을 하고 해당 분야를 발전시킨 프로테우스 프로젝트(Proteus Project)의 창립자입니다.
  • 또한 그는 문장 분할, 명명된 엔터티 주석, 시간 표현 주석 및 정규화, 품사 태깅, 부분 구문 분석 및 상호 참조와 같은 다중 언어 분석 구성 요소를 제공하는 널리 사용되는 정보 추출 도구인 JET(Java Extraction Toolkit)를 개발했습니다. 분석. 이러한 구성 요소는 다양한 애플리케이션에 따라 파이프라인으로 결합될 수 있으며, 단일 문장의 대화형 분석이나 전체 문서의 일괄 분석에 사용할 수 있습니다. 또한 JET는 문서 주석 및 표시를 위한 간단한 도구를 제공하고 ACE(자동 콘텐츠 추출) 사양에 따라 엔터티, 관계 및 이벤트를 추출하기 위한 전체 프로세스를 포함합니다.

    Grishman 교수의 연구는 NLP의 여러 핵심 문제를 다루며 현대 언어 처리 기술에 지대한 영향을 미쳤습니다.

    35개의 뛰어난 논문

    • 논문 1: 양자화 측면 튜닝: 양자화 대형 언어 모델의 빠르고 메모리 효율적인 튜닝
    • 저자: Zhengxin Zhang, Dan Zhao, X 우펭 미아오, Gabriele Oliaro, Zhihao Zhang, Qing Li, Yong Jiang, Zhihao Jia
    • 기관: CMU, Tsinghua University, Pengcheng Laboratory 등
    • 논문 링크: https://arxiv.org/pdf/2401.07159

    • 문서 2: L-Eval: 장기 컨텍스트 언어 모델에 대한 표준화된 평가 실시
    • 저자: Chenxin An, Shansan Gong, Ming Zhong, Xingjian Zhao, Mukai Li, Jun Zhang, Lingpeng Kong, Xipeng Qiu
    • 기관: 푸단대학교, 홍콩대학교, 일리노이대학교 어바나 샴페인, 상하이 AI 연구소
    • 논문 링크: https://arxiv.org/abs/2307.11088

    • 논문 3: 대규모 언어 모델 편향 제거를 위한 인과 기반 능동적 학습
    • 논문 링크: https://openreview.net/forum?id=idp_1Q6F-lC

    • 논문 4: CausalGym: 언어 작업에 대한 인과 해석 방법 벤치마킹
    • 저자: Aryaman Arora, Dan Jurafsky, Christopher Potts
    • 기관: Stanford University
    • 논문 링크: https://arxiv.org/abs/2402.12560

    • 문서 5: 환각하지 말고 기권하세요: 다중 LLM 협업을 통해 LLM 지식 격차 식별
    • 저자: Shangbin Feng, Weijia Shi, Yike Wang, Wenxuan Ding, Vidhisha Balachandran, Yulia Tsvetkov
    • 기관: 워싱턴 대학교, 캘리포니아 대학교, 버클리, 홍콩 과학 기술 대학교, CMU
    • 논문 링크: https://arxiv.org/abs/2402.00367

    • 논문 6: 음성 기초 모델 및 대규모 언어 모델을 사용한 음성 번역: 무엇이 있고 무엇이 빠졌나요?
    • 저자: Marco Gaido, Sara Papi, Matteo Negri, Luisa Bentivogli
    • 기관: Bruno Kessler Foundation , Italy
    • 논문 링크: https://arxiv.org/abs/2402.12025

    • 논문 7: NLP는 추출적이어야 합니까?
    • 저자: Steven Bird
    • : Charles Darwin University
    • 문서 링크: https://drive.google.com/file/d/1hvF7_WQrou6CWZydhymYFTYHnd3ZIljV/view

    • 문서 8: IRCoder: 중간 표현으로 Robus 만들기 t 다국어 코드 생성 erators
    • 저자: Indraneil Paul, Goran Glavaš, Iryna Gurevych
    • 기관: TU Darmstadt 등
    • 논문 링크: https://arxiv.org/abs/2403.03894

    • 논문 9: MultiLegalPile: 689GB 다국어 법률 자료
    • 저자: Matthias Stürmer, Veton Matoshi 등
    • 기관: 베른 대학교, 스탠포드 대학교 등
    • 논문 링크: https:/ /arxiv.org/pdf/2306.02069

    • 문서 10: PsySafe: 다중 에이전트 시스템 안전의 심리적 기반 공격, 방어 및 평가를 위한 포괄적인 프레임워크
    • 저자: Zaibin Zhang, Yongting Zhang , Lijun Li , Hongzhi Gao, Lijun Wang, Huchuan Lu, Feng Zhao, Yu Qiao, Jing Shao
    • 기관: 중국 대련 공과대학, 중국 과학 기술 대학 상하이 인공 지능 연구소
    • 논문 링크: https://arxiv .org/pdf/2401.11880

    • 논문 11: 감정적 지지 대화에 대한 선호 편향 완화
    • 저자: 강동진 , 김성환 외
    • 기관 : 연세대 등
    • 논문 링크 : https://arxiv.org/pdf/2402.13211

    • 논문 12 : 정치컴 합격하거나 Spinning Arrow? 대형 언어 모델의 가치와 의견에 대한 보다 의미 있는 평가를 향하여
    • 저자: Paul Röttger, Valentin Hofmann 등
    • 기관: Bocconi University, Allen Institute for Artificial Intelligence 등
    • 논문 링크: https://arxiv.org/pdf/ 2402.16786

    • 문서 13: 동일한 작업, 더 많은 토큰: 입력 길이가 대규모 언어 모델의 추론 성능에 미치는 영향
    • 저자: Mosh Levy, Alon Jacoby, Yoav Goldberg
    • 기관: 파키스탄 Elan University, Allen Institute for Artificial Intelligence
    • 논문 링크: https://arxiv.org/pdf/2402.14848

    • 논문 14: 라마가 다국어의 잠재 언어에서 작동합니까? Transformers
    • 저자: Chris Wendler, Veniamin Veselovsky 등
    • 기관: EPFL
    • 문서 15: 유머에 대해 진지하게 생각하기: 재미없는 대형 언어 모델로 유머 데이터세트 만들기
    저자: Zachary , Jingru Chen 등

      기관: Columbia University, EPFL
    • 논문 링크: https://arxiv.org/pdf/2403.00794
    • 논문 16: 방언 다방어 아랍어 데이터 세트의 주석 간 일치 예측
    저자: Amr Keleg, Walid Magdy , Sharon Goldwater

      기관: University of Edinburgh
    • 문서 링크: https://arxiv.org/pdf /2405.11282
    • 논문 17: G-DlG: 그라데이션 기반 Dlverse 및 기계 번역을 위한 고품질 명령어 데이터 선택을 향하여
    저자: Xingyuan Pan, Luyang Huang, Liyan Kang, Zhicheng Liu , Yu Lu, Shanbo Cheng

      기관: ByteDance Research
    • 논문 링크: https://arxiv.org/pdf/2405.12915
    • 논문 링크: https://openreview.net/pdf? id=9AV_zM56pwj
    • 논문 19: SPZ: 알츠하이머병 탐지를 위한 구역 혼합을 사용한 의미론적 교란 기반 데이터 증강 방법

    저자: FangFang Li, Cheng Huang, PuZhen 수지에인
    • 페이퍼 20: 탐욕만 있으면 됩니다: 토크나이저 추론 방법 평가
    • 기관: Ben Guri, Negev Ann University, MIT

    저자: Omri Uzan, Craig W. Schmidt, Chris Tanner, Yuval Pinter
    • 논문 링크: https://arxiv.org/abs/2403.01289

    논문 21: 언어 복잡도 및 음성 인식 정확도: 철자법 복잡도, 음운론적 복잡도 ity 그렇지 않습니다
    • 기관: University of Notre Dame(미국)
    • 저자: Chihiro Taquchi, David Chiang
    • 논문 링크: https://arxiv.org/abs/2406.09202

    논문 22: 대조 활성화 추가를 통한 Llama 2 조종
    • 기관: Anthropic, Harvard University, University of Göttingen(독일), Center for Human-Compatible AI
    • 저자: Nina Rimsky, Nick Gabrieli, Julian Schulz, Meg Tong, Evan J Hubinger, Alexander Matt Turner
    • 논문 링크: https://arxiv.org/abs/2312.06681

    논문 23: EconAgent: 대규모 언어 모델 기반 거시 경제 활동 시뮬레이션을 위한 에이전트
    • 기관: Tsinghua University - Shenzhen International Graduate School, Tsinghua University
    • 저자: Nian Li, Chen Gao , Mingyu Li, Yong Li, Qingmin Liao
    • 논문 링크: https: //arxiv.org/abs/2310.10436

    문서 24: M4LE: 대규모 언어 모델을 위한 다중 능력 다중 범위 다중 작업 다중 도메인 장기 컨텍스트 평가 벤치마크
    • 기관 : 홍콩 중문 대학교, 화웨이 노아의 방주 연구소, 홍콩 과학 기술 대학교
    • 저자: Wai-Chung Kwan, Xingshan Zeng, Yufei Wang, Yusen Sun, Liangyou Li, Lifeng Shang, Qun Liu, Kam- Fai Wong
    • 논문 링크: https://arxiv.org/abs/2310.19240

    논문 25: 확인 이유: 인수 구조를 통한 인과관계 검증
    • 저자 : Jiasheng Si, Yibo Zhao, Yingjie Zhu, Haiyang Zhu, Wenpeng Lu, Deyu Zhou
    • 논문 26: U darmstadt, Apple Inc.

    논문 링크: https://arxiv.org/pdf/2405.11919
    • 논문 27: 에뮬레이션된 불일치: 안전 정렬 대규모 언어 모델의 경우 역효과가 발생할 수 있습니다!
    • 저자: Zhanhui Zhou, Jie Liu, Zhichen Dong, Jiaheng Liu, Chao Yang, Wanli Ouyang, Yu Qiao
    • 기관: Shanghai Artificial Intelligence Laboratory

    논문 링크: https://arxiv.org/pdf/2402.12343
    • 문서 28: IndicLLMSuite: 인도어용 사전 훈련 및 미세 조정 데이터 세트 생성을 위한 청사진
    • 저자: Mohammed Safi Ur Rahman Khan, Priyam Mehta, Ananth Sankar 등
    • 기관: AI4Bharat의 Nilekani Center, Indian Institute of Technology(Madras), Microsoft 등

    논문 링크: https://arxiv.org/pdf/ 2403.06350
    • 논문 29: MultiPICo: 다국어 관점주의자 lrony Corpus
    • 저자: Silvia Casola, Simona Frenda, Soda Marem Lo, Erhan Sezerer 등
    • 기관: 토리노 대학교, aequa-tech, Amazon 개발 센터(이탈리아) 등

    논문 링크: https://assets.amazon.science/08/83/9b686f424c89b08e8fa0a6e1d020/multipico-multilingual-perspectivist-irony-corpus.pdf
    • 논문 30: MMToM-QA: 다중 모드 이론 질문 응답
    • 저자: Chuanyang Jin, Yutong Wu, Jing Cao, jiannan Xiang 등
    • 기관: New York University, Harvard University, MIT, University of California, San Diego, University of Virginia, Johns Hopkins University

    논문 링크: https://arxiv.org/pdf/2401.08743
    • 논문 31: MAP는 그렇지 않습니다 아직 죽었습니다: 타락을 조건화하여 진정한 언어 모델 모드 발견
    • 저자: Davis Yoshida, Kartik Goyal, Kevin Gimpel
    • 기관: Toyota Institute of Technology Chicago, Georgia Institute of Technology

    문서 링크: https : //arxiv.org/pdf/2311.08817
    • Paper 32 : Nounatlas : 공칭 의미 론적 역할 라벨링에서 간격을 채우는 사람 : Roberto Navigli, Marco Lo Pinto, Pasquale Silvestri 등
    문서 33: 지구는 평평하기 때문에... 설득대화를 통한 잘못된 정보에 대한 LLM의 믿음 조사

      저자: Rongwu Xu, Brian S. Lin, Shujian Yang, Tiangi Zhang 등
    • 기관: 칭화 대학교, 상하이 자오퉁 대학교, 스탠포드 대학교, 난양 기술 대학교
    • 논문 링크: https://arxiv.org/pdf/2312.09085

    • Paper 34: Let's Go Real Talk: 대면 대화를 위한 음성 대화 모델
    • 저자: 박세진, 김채원, 나형섭, 김민수 등
    • 기관: 한국과학기술원 (KAIST)
    • 논문 링크: https://arxiv.org/pdf/2406.07867

    • 논문 35 :Word Embeddings Are Steers for Language Models
    • 저자: Chi Han, 자량 Xu, Manling Li, Yi Fung, Chenkai Sun, Nan Jiang, Tarek F. Abdelzaher, Heng Ji
    • 기관: University of Illinois at Urbana - Champaign
    • 논문 링크: https://arxiv.org/pdf /2305.12798

    • 베스트테마논문상
    • 논문: OLMo: Accelerated the Science of Language Models

      • 저자: Dirk Groeneveld, Iz Beltagy 등
      • 기관: Allen Institute for Artificial Intelligence, University of Washington 등
      • 논문 링크: https://arxiv.org/pdf/2402.00838

      인용: 이 작업은 대규모 언어 모델 훈련의 투명성과 재현성을 향한 중요한 단계이며, 이는 커뮤니티가 달성하고 있는 것입니다. 발전을 위해 많이 필요합니다. (또는 적어도 업계 거대 기업이 아닌 다른 연구자가 기여할 수 있도록).

      자원논문상

      3편의 논문이 자원논문상을 수상했습니다.

      논문 1: Latxa: 바스크어를 위한 개방형 언어 모델 및 평가 제품군
      기관: 스페인 바스크 지방 대학교

      • 저자: Julen Etxaniz, Oscar Sainz, Naiara Perez, Itziar Aldabe, German Rigau, Eneko Agirre, Aitor Ormazabal, Mikel Artetxe, Aitor Soroa
      • 링크: https://arxiv.org/pdf/2403.20266

      수상 사례: 이 논문은 다음과 같이 설명합니다. 코퍼스 컬렉션 세부정보, 데이터세트 평가 세부정보. 바스크어 연구와 관련이 있지만 이 방법론은 자원이 적은 다른 언어에 대한 대규모 모델 구축으로 확장될 수 있습니다.

      논문 2: Dolma: 언어 모델 사전 훈련 연구를 위한 3조 토큰의 공개 코퍼스

      • 기관: Allen Institute for Artificial Intelligence, University of California, Berkeley 등
      • 저자 : Luca Soldaini, Rodney Kinney 등
      • 링크 : https://arxiv.org/abs/2402.00159

      수상 이유 : 이 논문은 준비 시 데이터 관리의 중요성을 보여줍니다. 대규모 언어 모델 훈련을 위한 데이터 세트. 이는 커뮤니티 내의 다양한 사람들에게 매우 귀중한 통찰력을 제공합니다.

      문서 3: AppWorld: 대화형 코딩 에이전트 벤치마킹을 위한 제어 가능한 앱 및 사람의 세계

      • 기관: 뉴욕 주립대학교 Stony Brook, Allen 인공 지능 연구소 등
      • 저자: Harsh Trivedi, Tushar Khot 등
      • 링크: https://arxiv.org/abs/2407.18901

      수상 이유: 이 연구는 매우 중요하고 놀랍습니다. 대화형 환경 시뮬레이션 및 평가 작업을 구축합니다. 이는 모든 사람이 커뮤니티를 위한 보다 하드코어한 동적 벤치마크를 생성하도록 장려할 것입니다.

      Social Impact Award

      3편의 논문이 Social Impact Award를 수상했습니다.

      문서 1: Johnny가 LLM을 설득하여 탈옥하는 방법: LLM을 인간화하여 AI 안전에 도전하는 설득에 대한 재고

      • 저자: Yi Zeng, Hongpeng Lin, Jingwen Zhang, Diyi Yang 등 .
      • 기관: 버지니아 공대, 중국 인민 대학교, 캘리포니아 대학교, 데이비스, 스탠포드 대학교
      • 논문 링크: https://arxiv.org/pdf/2401.06373

      이유 수상: 이 기사에서는 AI 보안(탈옥)이라는 주제를 탐구하고 사회 과학 연구 분야에서 개발된 방법을 검토합니다. 이 연구는 매우 흥미롭고 지역사회에 중대한 영향을 미칠 가능성이 있습니다.

      문서 2: DIALECTBENCH: 방언, 종류 및 밀접하게 관련된 언어에 대한 NLP 벤치마크

      • 저자: Fahim Faisal, Orevaoghene Ahia, Aarohi Srivastava, Kabir Ahuja 등
      • 기관: 조지 메이슨 대학교, 워싱턴 대학교, 노트르담 대학교, RC Athena
      • 논문 링크: https://arxiv.org/pdf/2403.11009

      수상 인용: 방언 변형 NLP와 인공지능의 중요한 영역입니다. 아직 연구가 덜 된 현상입니다. 그러나 언어와 사회의 관점에서 볼 때 그 연구는 매우 높은 가치를 가지며 응용에 있어 중요한 의미를 갖는다. 본 논문은 LLM 시대에 이러한 문제를 연구하기 위한 매우 새로운 벤치마크를 제안합니다.

      문서 3: 기도 후 맥주를 마시나요? 대규모 언어 모델에서 문화적 편견 측정

      • 저자: Tarek Naous, Michael J. Ryan, Alan Ritter, Wei Xu
      • 기관: Georgia Institute of Technology
      • 논문 링크: https://arxiv.org/pdf/2305.14456

      수상 이유: 이 기사는 LLM 시대의 중요한 문제인 문화적 편견을 보여줍니다.본 논문에서는 아랍 문화와 지역을 조사했으며 그 결과 LLM을 설계할 때 문화적 차이를 고려해야 함을 보여줍니다. 따라서 동일한 연구를 다른 문화권에서도 재현하여 다른 문화권도 이 문제의 영향을 받는지 일반화하고 평가할 수 있습니다.

위 내용은 ACL 2024 시상식 발표: HuaTech의 Oracle 해독에 관한 최고의 논문 중 하나, GloVe Time Test Award의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.