>  기사  >  기술 주변기기  >  범용 데이터 향상 기술, 임의 양자화는 모든 데이터 형식에 적합합니다.

범용 데이터 향상 기술, 임의 양자화는 모든 데이터 형식에 적합합니다.

王林
王林앞으로
2023-09-06 12:13:101192검색

자기 지도 학습 알고리즘은 자연어 처리, 컴퓨터 비전과 같은 분야에서 상당한 발전을 이루었습니다. 이러한 자기 지도 학습 알고리즘은 개념적으로는 일반적이지만 특정 작업은 특정 데이터 양식을 기반으로 합니다. 이는 다양한 데이터 양식에 맞게 다양한 자기 지도 학습 알고리즘을 개발해야 함을 의미합니다. 이를 위해 본 논문에서는 모든 데이터 양식에 적용할 수 있는 일반적인 데이터 증대 기법을 제안한다. 기존 범용 자기 지도 학습과 비교하여 이 방법은 상당한 성능 향상을 달성할 수 있으며, 특정 양식을 위해 설계된 일련의 복잡한 데이터 향상 방법을 대체하고 유사한 성능을 달성할 수 있습니다. ㅋㅋㅋ 소개

범용 데이터 향상 기술, 임의 양자화는 모든 데이터 형식에 적합합니다.

재작성된 콘텐츠: 현재 샴 표현 학습/대조 학습에서는 데이터 증강 기술을 사용하여 동일한 데이터의 서로 다른 샘플을 구성하고 이를 두 개의 병렬 네트워크 구조에 입력하여 충분히 강력한 감독 신호를 생성해야 합니다. 그러나 이러한 데이터 증대 기술은 일반적으로 양식별 사전 지식에 크게 의존하므로 종종 수동 설계가 필요하거나 현재 양식에 적합한 최상의 조합을 검색해야 합니다. 시간이 많이 걸리고 노동 집약적일 뿐만 아니라, 발견된 최고의 데이터 증대 방법은 다른 영역으로 이전하기도 어렵습니다. 예를 들어 자연 RGB 이미지의 일반적인 색상 지터링은 자연 이미지를 제외한 다른 데이터 형식에 적용할 수 없습니다.
  • 일반적으로 입력 데이터는 시퀀스 차원과 채널 차원 벡터로 구성된 바이너리로 표현될 수 있습니다. 시퀀스 차원은 종종 이미지의 공간적 차원, 음성의 시간적 차원, 언어의 구문적 차원과 같은 데이터의 양식과 관련됩니다. 채널 차원은 양식과 무관합니다. 자기 지도 학습에서는 폐색 모델링이나 폐색을 데이터 증강으로 사용하는 것이 효과적인 학습 방법이 되었습니다. 그러나 이러한 작업은 시퀀스 차원에서 수행됩니다. 다양한 데이터 양식에 널리 적용하기 위해 본 논문에서는 채널 차원에 작용하는 데이터 향상 방법인 랜덤 양자화를 제안합니다. Non-Uniform Quantizer를 사용하여 각 채널의 데이터를 동적으로 양자화함으로써 양자화된 값은 무작위로 나누어진 간격에서 무작위로 샘플링됩니다. 이렇게 하면 동일한 간격에서 원래 입력된 정보의 차이가 삭제되고 서로 다른 간격에서 데이터의 상대적인 크기를 유지하여 마스킹 효과를 얻을 수 있습니다
  • 이 방법은 다양한 데이터에 사용할 수 있습니다. 자연 이미지, 3D 포인트 클라우드, 음성, 텍스트, 센서 데이터, 의료 이미지 등 모든 형태에서 기존의 자기 지도 학습 방법을 능가합니다. 대조 학습(예: MoCo-v3), 자기 증류식 자기 지도 학습(예: BYOL) 등 다양한 사전 학습 학습 작업에서는 기존 방법보다 나은 기능을 학습합니다. 이 방법은 CNN 및 Transformer와 같은 다양한 백본 네트워크 구조에서도 검증되었습니다.

Method

양자화란 일련의 이산 값을 사용하여 연속적인 데이터를 표현함으로써 데이터의 효율적인 저장, 운영 및 전송을 용이하게 하는 것을 말합니다. 그러나 양자화 작업의 일반적인 목표는 정확도를 잃지 않고 데이터를 압축하는 것입니다. 따라서 프로세스는 결정론적이며 원본 데이터에 최대한 가깝게 설계되었습니다. 이는 향상 수단으로서의 강점과 출력의 데이터 풍부성을 제한합니다.

이 기사에서는 각 입력 채널 데이터를 겹치지 않는 여러 개의 무작위 간격(

)으로 독립적으로 나누고, 각 간격 내에 속하는 원래 입력을 무작위로 샘플링된 상수

범용 데이터 향상 기술, 임의 양자화는 모든 데이터 형식에 적합합니다.

로 나누는 무작위 양자화 작업을 제안합니다. 간격부터.

자기 지도 학습 작업에서 채널 차원 데이터를 마스킹하는 무작위 양자화 기능은 다음 세 가지 측면의 설계에 따라 다릅니다. 1) 숫자 간격을 무작위로 나누기 2) 출력 값을 무작위로 샘플링하고 3 ) 분할된 숫자 간격 번호입니다.

구체적으로, 랜덤 프로세스는 더 풍부한 샘플을 가져오고, 동일한 데이터라도 랜덤 양자화 작업이 수행될 때마다 다른 데이터 샘플을 생성할 수 있습니다. 동시에 무작위 프로세스는 원본 데이터를 더 크게 향상시킵니다. 예를 들어 큰 데이터 간격을 무작위로 나누거나 매핑 지점이 간격의 중앙 지점에서 벗어나면 원본 입력 및 출력이 다음과 같이 발생할 수 있습니다. 간격 사이에 더 큰 차이가 있습니다.

분할 간격을 적절하게 줄여 강화 강도를 쉽게 높일 수 있습니다. 이와 같이 Siamese 표현 학습에 적용하면 두 네트워크 분기는 충분한 정보 차이가 있는 입력 데이터를 수신할 수 있어 특징 학습을 촉진하는 강력한 학습 신호를 구성할 수 있습니다

아래 그림은 서로 다른 데이터 모델을 시각화한 것입니다. 이 데이터 증대 방법 사용:

범용 데이터 향상 기술, 임의 양자화는 모든 데이터 형식에 적합합니다.

실험 결과

다시 작성된 내용은 다음과 같습니다. 모드 1: Image

이 기사는 ImageNet-1K 데이터 세트에서 평가됩니다. MoCo-v3 및 BYOL, 평가 지표는 선형 평가입니다. 유일한 데이터 증대 방법으로 단독으로 사용할 경우, 즉 본 논문의 증대는 원본 이미지의 중앙 크롭에 적용되며, 일반적인 RRC(Random Resize Crop)와 함께 사용하면 이 방법이 더 나은 결과를 얻었습니다. 기존의 일반적인 자기주도 학습 방식보다 더 나은 결과를 얻을 수 있습니다.

범용 데이터 향상 기술, 임의 양자화는 모든 데이터 형식에 적합합니다.

CJ(컬러 지터링)와 같은 이미지 데이터용으로 개발된 기존 데이터 향상 방법과 비교할 때 이 문서의 방법은 분명한 성능 이점을 가지고 있습니다. 동시에 이 방법은 색상 지터링, 무작위 그레이 스케일, 무작위 가우시안 블러, 무작위 노출(태양광화)을 포함하여 MoCo-v3/BYOL의 일련의 복잡한 데이터 향상 방법(전체)을 대체하고 다음과 유사한 효과를 얻을 수도 있습니다. 복잡한 데이터 향상 방법.

범용 데이터 향상 기술, 임의 양자화는 모든 데이터 형식에 적합합니다.

다시 작성해야 하는 내용은 다음과 같습니다. 모드 2: 3D 포인트 클라우드

ModelNet40 데이터 세트의 분류 작업과 ShapeNet Part 데이터 세트의 분할 작업에서 본 연구에서는 무작위로 검증했습니다. 양자화 기존 자체 감독 방법보다 우수합니다. 특히 다운스트림 훈련 세트의 데이터 양이 작은 경우 이 연구 방법은 기존 포인트 클라우드 자체 지도 알고리즘을 크게 초과합니다

범용 데이터 향상 기술, 임의 양자화는 모든 데이터 형식에 적합합니다.

재작성된 내용: 세 번째 양식: 음성

이 기사의 방법은 음성 데이터 세트에 대한 기존 자기 지도 학습 방법보다 더 나은 성능을 달성합니다. 본 논문에서는 6개의 다운스트림 데이터 세트에서 이 방법의 우수성을 검증했습니다. 그 중 가장 어려운 데이터 세트인 VoxCeleb1(가장 많은 카테고리를 포함하고 다른 데이터 세트의 수를 훨씬 초과함)에서 이 방법은 상당한 성능 향상을 달성했습니다. (5.6점).

범용 데이터 향상 기술, 임의 양자화는 모든 데이터 형식에 적합합니다.

다시 작성된 콘텐츠는 다음과 같습니다. 모드 4: DABS

DABS는 자연 이미지, 텍스트, 음성, 센서를 포함한 다양한 모달 데이터를 다루는 일반적인 자기 지도 학습 벤치마크입니다. 데이터, 의료영상, 그래픽 등 우리의 방법은 DABS

범용 데이터 향상 기술, 임의 양자화는 모든 데이터 형식에 적합합니다.

관심 있는 독자는 원본 논문을 읽고 연구 내용을 이해할 수 있습니다. 세부 정보

위 내용은 범용 데이터 향상 기술, 임의 양자화는 모든 데이터 형식에 적합합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제