최근 몇 년 동안 NLP 및 CV 분야는 방법 면에서 지속적인 혁신을 이루었습니다. 단일 모드 모델이 발전했을 뿐만 아니라 대규모 다중 모드 방법도 매우 인기 있는 연구 분야가 되었습니다.
최근 논문에서 연구원 Matthias Aßenmacher는 딥 러닝의 두 하위 분야에서 가장 진보된 연구 방법을 검토하고 포괄적인 개요를 제공하려고 노력했습니다. 또한 한 양식을 다른 양식으로 변환하기 위한 모델링 프레임워크(3.1장 및 3.2장)와 한 양식을 활용하여 다른 양식을 향상시키는 표현 학습 모델(3.3장 및 3.4장)에 대해 논의합니다. 연구자들은 두 가지 양식을 동시에 처리하는 데 초점을 맞춘 아키텍처를 도입하여 두 번째 부분을 마무리합니다(3.5장). 마지막으로, 이 문서에서는 통합 아키텍처에서 다양한 양식에 대한 다양한 작업을 처리할 수 있는 일반 다중 모드 모델(4.3장)뿐만 아니라 다른 양식(4.1장 및 4.2장)도 다루고 있습니다. 흥미로운 적용(“Generative Art”, 4.4장)이 이 리뷰의 핵심이 되었습니다.
논문 장의 목차는 다음과 같습니다.
인간은 청각, 촉각, 후각, 미각, 미각의 5가지 기본 감각을 가지고 있습니다. 비전. 이 다섯 가지 모드를 통해 우리는 주변 세계를 인식하고 이해합니다. "멀티모달리티(Multimodality)"는 여러 정보 채널의 조합을 사용하여 주변 환경을 동시에 이해하는 것을 의미합니다. 예를 들어, 유아가 "고양이"라는 단어를 배울 때, 그들은 고양이를 가리키며 "야옹"과 같은 소리를 내는 등 다양한 방식으로 그 단어를 큰 소리로 말합니다. AI 연구자들은 인간의 학습 과정을 패러다임으로 사용하고 다양한 양식을 결합하여 딥 러닝 모델을 훈련합니다.
표면적으로 딥 러닝 알고리즘은 손실 함수를 최적화하도록 신경망을 훈련하여 정의된 목적 함수를 최적화합니다. 최적화, 즉 손실 최소화는 경사 하강법이라는 수치 최적화 절차를 통해 수행됩니다. 따라서 딥러닝 모델은 수치 입력만 처리할 수 있고 수치 출력만 생성할 수 있습니다. 그러나 다중 모드 작업에서는 이미지나 텍스트와 같은 구조화되지 않은 데이터를 자주 접하게 됩니다. 따라서 다중 모드 작업에 대한 첫 번째 질문은 입력을 수치적으로 표현하는 방법이며, 두 번째 질문은 다양한 양식을 적절하게 결합하는 방법입니다.
예를 들어 고양이 사진을 생성하기 위해 딥 러닝 모델을 훈련시키는 것이 일반적인 작업일 수 있습니다. 먼저, 컴퓨터는 텍스트 입력 "cat"을 이해한 다음 어떻게든 해당 정보를 특정 이미지로 변환해야 합니다. 따라서 입력 텍스트에 포함된 단어 간의 문맥적 관계와 출력 이미지에 포함된 픽셀 간의 공간적 관계를 파악하는 것이 필요합니다. 어린 아이에게는 쉬운 일이 컴퓨터에게는 큰 도전이 될 수 있습니다. 둘 다 동물의 의미와 외모를 포함하여 "고양이"라는 단어에 대해 어느 정도 이해하고 있어야 합니다.
현재 딥 러닝 분야의 일반적인 방법은 일부 잠재 공간에서 고양이를 벡터로 수치적으로 나타내는 임베딩을 생성하는 것입니다. 이를 달성하기 위해 최근에는 다양한 방법과 알고리즘 아키텍처가 개발되었습니다. 이 기사에서는 구조화되지 않은 데이터와 다양한 모달 입력의 조합으로 인해 발생하는 문제를 극복하기 위해 최첨단(SOTA) 다중 모드 딥 러닝에 사용되는 다양한 방법에 대한 개요를 제공합니다.
멀티모달 모델은 일반적으로 텍스트와 이미지를 입력 또는 출력으로 사용하므로 2장에서는 자연어 처리(NLP) 및 컴퓨터 비전(CV) 방법에 중점을 둡니다. NLP 분야의 방법은 주로 텍스트 데이터 처리에 중점을 두는 반면, CV는 주로 이미지 처리를 다룹니다.
NLP(섹션 2.1)에 대한 매우 중요한 개념은 단어 임베딩이라고 하며, 이는 현재 거의 모든 다중 모드 딥 러닝 아키텍처의 중요한 부분입니다. 이 개념은 또한 여러 NLP 작업에서 상당한 진전을 달성한 BERT와 같은 Transformer 기반 모델의 토대를 마련했습니다. 특히 Transformer의 self-attention 메커니즘은 NLP 모델을 완전히 변화시켰으며, 이것이 대부분의 NLP 모델이 Transformer를 코어로 사용하는 이유입니다.
컴퓨터 비전(섹션 2.2)에서 저자는 ResNet, EfficientNet, SimCLR 및 BYOL과 같은 다양한 네트워크 아키텍처를 소개합니다. 두 영역 모두에서 서로 다른 접근 방식을 비교하고 까다로운 벤치마크에서 이러한 접근 방식이 어떻게 수행되는지를 비교하는 것은 매우 흥미로운 일입니다. 따라서 2장의 끝 부분에 있는 하위 섹션 2.3에서는 CV 및 NLP에 대한 다양한 데이터 세트, 사전 훈련 작업 및 벤치마크에 대한 포괄적인 개요를 제공합니다.
3장에서는 텍스트와 이미지의 다양한 조합을 다루는 다양한 다중 모드 아키텍처에 중점을 두고 제안된 모델은 NLP 및 CV의 다양한 방법에 대한 연구를 결합하고 발전시킵니다. 먼저 Img2Text 작업(섹션 3.1), 개체 인식을 위한 Microsoft COCO 데이터 세트 및 이미지 캡처를 위한 Meshed-Memory Transformer를 소개합니다.
또한 연구원들은 짧은 텍스트 프롬프트를 기반으로 이미지를 생성하는 방법을 개발했습니다(섹션 3.2). 이 작업을 수행하는 첫 번째 모델은 GAN(Generative Adversarial Networks)과 VAE(Variational Autoencoders)였습니다. 최근 몇 년 동안 이러한 방법은 지속적으로 개선되었으며 오늘날의 SOTA Transformer 아키텍처와 DALL-E 및 GLIDE와 같은 텍스트 기반 확산 모델은 놀라운 결과를 얻었습니다. 또 다른 흥미로운 질문은 이미지를 활용하여 언어 모델을 지원하는 방법입니다(섹션 3.3). 이는 순차 임베딩, 고급 실제 임베딩을 통해 또는 Transformer 내부에서 직접 달성할 수 있습니다.
CLIP, ALIGN, Florence 등 텍스트 지원 CV 모델도 살펴보세요(섹션 3.4). 기본 모델의 사용은 모델 재사용(예: DALL-E 2의 CLIP)과 텍스트-이미지 연결의 대조적 손실을 의미합니다. 또한 제로샷을 사용하면 미세 조정을 통해 새로운 데이터와 보이지 않는 데이터를 쉽게 분류할 수 있습니다. 특히 지난해에는 이미지 분류 및 생성을 위한 오픈소스 아키텍처인 CLIP이 많은 주목을 받았다. 텍스트와 이미지를 동시에 처리하기 위한 다른 아키텍처는 3장의 끝부분(3.5절)에 소개됩니다.
예를 들어 Data2Sec는 음성, 시각 및 언어를 처리하는 데 동일한 학습 방법을 사용하고 하나의 아키텍처에서 다양한 양식을 처리하는 일반적인 방법을 찾으려고 노력합니다. 또한 VilBert는 공동 관심을 구현하여 이미지 및 텍스트 입력을 처리하도록 널리 사용되는 BERT 아키텍처를 확장합니다. 이 접근 방식은 Google의 Deepmind Flamingo에서도 사용됩니다. 또한 Flamingo는 사전 훈련된 비전 및 언어 모델의 프리샷 학습과 동결을 통해 단일 시각적 언어 모델로 여러 작업을 처리하는 것을 목표로 합니다.
마지막 장(4장)에서는 텍스트와 이미지 이외의 영상, 음성, 표 형식 데이터 등 양식을 처리할 수 있는 방법을 소개합니다. 전반적인 목표는 모달성을 위한 모달이 아닌 문제를 쉽게 처리할 수 있는 보편적인 다중 모달 아키텍처를 탐색하는 것입니다. 따라서 다중 모드 융합 및 정렬 문제를 처리하고 공동 표현을 사용할지 조정 표현을 사용할지 결정하는 것도 필요합니다(4.1절). 또한 구조화된 데이터와 구조화되지 않은 데이터의 정확한 조합에 대해 더 자세히 설명합니다(섹션 4.2).
저자는 또한 최근 몇 년 동안 개발된 다양한 통합 전략을 제안합니다. 이 기사에서는 생존 분석과 경제학의 두 가지 사용 사례를 통해 이를 설명합니다. 이 외에도 또 다른 흥미로운 연구 질문은 Google 연구원이 "경로" 모델에서 만든 것과 같은 소위 다목적 모델(섹션 4.3)에서 다양한 작업을 처리하는 방법입니다. 마지막으로 이 기사에서는 생성 예술 분야에서 예술 작품을 만들기 위해 DALL-E와 같은 이미지 생성 모델을 사용하여 예술 현장에서 다중 모드 딥 러닝의 일반적인 적용을 보여줍니다(섹션 4.4).
자세한 내용은 원문을 참고해주세요.
위 내용은 NLP와 CV의 통합 혁신 분석: 최근 몇 년 동안 다중 모드 딥 러닝 살펴보기의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!