>  기사  >  기술 주변기기  >  EMNLP 2022 컨퍼런스 공식 종료, 최우수 장편 논문, 최우수 단편 논문 및 기타 수상 발표

EMNLP 2022 컨퍼런스 공식 종료, 최우수 장편 논문, 최우수 단편 논문 및 기타 수상 발표

PHPz
PHPz앞으로
2023-05-09 14:10:141429검색

최근 아랍에미리트의 수도 아부다비에서 자연어 처리 분야 최고의 컨퍼런스인 EMNLP 2022가 열렸습니다.

EMNLP 2022大会正式落幕,最佳长论文、最佳短论文等奖项公布

올해 학회에는 총 4190편의 논문이 제출되어 829편(장편 715편, 114편)이 최종 승인되었으며, 전체 합격률은 20%로 이전과 크게 다르지 않습니다. 연령.

EMNLP 2022大会正式落幕,最佳长论文、最佳短论文等奖项公布

컨퍼런스는 현지 시간으로 12월 11일에 종료되었으며, 최우수 장편논문(1편), 최우수 단편논문(1편), 최우수 단편논문(1편) 등 올해의 논문상도 발표되었습니다. 데모 문서(1개 기사).

Best Long Paper

EMNLP 2022大会正式落幕,最佳长论文、最佳短论文等奖项公布

Paper: Tangram Shapes를 사용한 추상적 시각적 추론

  • 저자: Anya Ji , Noriyuki Kojima, Noah Rush, Alane Suhr, Wai Keen Vong , Robert D. Hawkins , Yoav Artzi
  • 기관: 코넬 대학교, 뉴욕 대학교, Allen 연구소, 프린스턴 대학교
  • 논문 링크: https://arxiv.org/pdf/2211.16492.pdf

Paper abstract: 본 논문에서 연구원은 인간과 기계의 추상적 시각적 추론을 연구하기 위한 리소스 라이브러리인 "KiloGram"을 소개합니다. KiloGram은 두 가지 방법으로 기존 리소스를 크게 향상시킵니다. 먼저 연구자들은 1,016개의 도형을 선별하고 디지털화하여 기존 작업에 사용된 것보다 2배 더 큰 컬렉션을 만들었습니다. 이 컬렉션은 명명 변형의 전체 범위에 대한 적용 범위를 크게 늘려 인간의 명명 행동에 대한 보다 포괄적인 관점을 제공합니다. 둘째, 컬렉션은 각 탱그램을 단일한 전체 모양이 아닌 원본 퍼즐 조각으로 구성된 벡터 모양으로 취급합니다. 이러한 분해를 통해 전체 모양과 부분에 대한 추론이 가능해집니다. 연구원들은 이 새로운 디지털 직소 퍼즐 그래픽 컬렉션을 사용하여 명명 동작의 다양성을 반영하는 대량의 텍스트 설명 데이터를 수집했습니다.

연구원들은 크라우드소싱을 활용하여 주석 프로세스를 확장하고 각 모양에 대해 여러 주석을 수집하여 단일 샘플이 아닌 도출된 주석의 분포를 나타냈습니다. 총 13,404개의 주석이 수집되었으며, 각 주석은 완전한 개체와 해당 개체의 분할된 부분을 설명합니다.

KiloGram의 잠재력은 광범위합니다. 우리는 이 리소스를 사용하여 최근 다중 모드 모델의 추상적인 시각적 추론 기능을 평가했으며 사전 훈련된 가중치가 미세 조정을 통해 크게 향상되는 제한적인 추상 추론 기능을 나타냄을 관찰했습니다. 그들은 또한 명시적인 설명이 특히 언어와 시각적 입력을 공동으로 인코딩할 때 인간과 모델 모두의 추상적 추론을 촉진한다는 것을 관찰했습니다.

그림 1은 각각 두 개의 서로 다른 주석이 있는 두 개의 칠교판의 예입니다. 각 주석에는 전체 모양에 대한 설명(굵은 글씨), 부품 분할(색상), 각 부품에 대한 이름(각 부품에 연결됨)이 포함됩니다. 위쪽 예는 거의 완벽에 가까운 일치에 대한 낮은 가변성을 보여 주는 반면, 아래쪽 예는 언어 및 분할 분기에 대한 높은 가변성을 보여줍니다.


EMNLP 2022大会正式落幕,最佳长论文、最佳短论文等奖项公布

KiloGram 주소: https://lil.nlp.cornell.edu/kilogram

이 컨퍼런스의 최우수 장편 논문 후보는 Kayo Yin과 Graham Neubig입니다. 두 명의 연구원이 획득했습니다.

EMNLP 2022大会正式落幕,最佳长论文、最佳短论文等奖项公布

논문: 대조 설명을 사용한 언어 모델 해석

  • 저자: Kayo Yin, Graham Neubig

논문 초록: 모델의 해석 가능성 방법은 다음과 같습니다. NLP를 설명하는 데 사용됨 출력 공간이 상대적으로 작은 텍스트 분류와 같은 작업에 대한 모델 결정. 그러나 언어 생성에 적용하면 출력 공간이 수만 개의 토큰으로 구성되는 경우가 많아 이러한 방법으로는 유익한 설명을 제공할 수 없습니다. 언어 모델은 토큰을 예측하기 위해 품사, 숫자, 시제 또는 의미와 같은 다양한 기능을 고려해야 합니다. 기존의 설명 방법은 이러한 모든 특징에 대한 증거를 단일 설명으로 결합하기 때문에 인간이 이해하기 어렵습니다.

언어 모델링에서 다양한 결정을 구별하기 위해 연구자들은 대조 설명에 초점을 맞춘 언어 모델을 탐색합니다. 그들은 눈에 띄는 입력 토큰을 찾고 모델이 하나의 토큰을 예측했지만 다른 토큰은 예측하지 않은 이유를 설명합니다. 연구에 따르면 주요 문법 현상을 검증하는 데 있어서 대조 설명이 비대비 설명보다 훨씬 더 우수하며 인간 관찰자를 위한 대조 모델 시뮬레이션 가능성이 크게 향상되는 것으로 나타났습니다. 연구자들은 또한 모델이 유사한 증거를 사용하는 대조되는 결정 그룹을 식별하고 모델이 다양한 언어 생성 결정에 사용하는 입력 토큰을 설명할 수 있었습니다.

코드 주소: https://github.com/kayoyin/interpret-lm

최고의 짧은 논문

EMNLP 2022大会正式落幕,最佳长论文、最佳短论文等奖项公布

논문: 주제별 정규화된 저자 표현 학습

  • 작성자 : Jitkapat Sawatphol, Nonthakit Chaiwong, Can Udomcharoenchaikit, Sarana Nutanong
  • 기관: VISTEC Institute of Science and Technology, Thai

요약: 본 연구에서 연구자들은 저자권 표시를 제안했습니다. 정규화, 주제 간 성능을 향상시키고 보이지 않는 작성자도 처리할 수 있는 증류 프레임워크입니다. 이 접근 방식은 모든 저자 표시 모델에 적용될 수 있습니다. 실험 결과 교차 주제 설정에서 4/6 성능이 향상되는 것으로 나타났습니다. 동시에 연구자들의 분석에 따르면 주제가 많은 데이터 세트에서 주제 전반에 걸쳐 설정된 훈련 샤드에는 주제 정보 유출 문제가 있어 주제 간 속성을 평가하는 능력이 약화되는 것으로 나타났습니다.

최고의 데모 문서

EMNLP 2022大会正式落幕,最佳长论文、最佳短论文等奖项公布

문서: 허브에서의 평가 및 평가: 데이터 및 모델 측정에 대한 더 나은 모범 사례

  • 저자: Leandro von Werra, Lewis Tunstall, Abhishek Thakur, Alexandra Sasha Luccioni et al
  • 기관: Hugging Face
  • 논문 링크: https://arxiv.org/pdf/2210.01970.pdf

논문 초록: 평가는 머신 학습(ML)의 핵심 부분인 이 연구에서는 ML의 모델 및 데이터 세트를 평가하는 데 도움이 되는 도구 세트인 허브의 평가 및 평가를 소개합니다. Evaluate는 다양한 모델과 데이터세트를 비교하고 다양한 측정항목을 지원하는 라이브러리입니다. Evaluate 라이브러리는 평가 재현성을 지원하고, 평가 프로세스를 문서화하고, 평가 범위를 확장하여 모델 성능의 더 많은 측면을 포괄하도록 설계되었습니다. 여기에는 다양한 도메인 및 시나리오에 대한 50개 이상의 효율적인 사양 구현, 대화형 문서, 구현 및 평가 결과를 쉽게 공유하는 기능이 포함되어 있습니다.

프로젝트 주소: https://github.com/huggingface/evaluate

또한 연구원은 Hugging Face에서 75,000개 이상의 모델을 무료로 평가할 수 있는 플랫폼인 Evaluation on the Hub도 출시했습니다. 버튼 클릭만으로 대규모 평가를 위한 허브 및 11,000개의 데이터세트를 이용할 수 있습니다.

위 내용은 EMNLP 2022 컨퍼런스 공식 종료, 최우수 장편 논문, 최우수 단편 논문 및 기타 수상 발표의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제