찾다
기술 주변기기일체 포함CVPR 2024 방법을 능가하는 DynRefer는 지역 수준 다중 모드 인식 작업에서 여러 SOTA를 달성합니다.

고정밀 지역 수준 다중 모드 이해를 달성하기 위해 본 논문에서는 인간의 시각 인지 시스템을 시뮬레이션하는 동적 해상도 방식을 제안합니다.

이 기사의 저자는 중국과학원 LAMP 연구소 출신입니다. 제1저자는 2023년 중국과학원 박사과정 학생이고, 공동저자는 Liu입니다. Feng은 2020년 중국과학원 대학 직속 박사과정 학생입니다. 주요 연구 방향은 시각적 언어 모델과 시각적 객체 인식입니다.

소개

DynRefer는 인간의 시각적 인지 과정을 시뮬레이션하여 지역 수준의 다중 모달 인식 기능을 크게 향상시킵니다. 인간 눈의 동적 해상도 메커니즘을 도입함으로써 DynRefer는 단일 모델로 영역 인식, 영역 속성 감지 및 영역 수준 캡션 작업을 동시에 완료하고 위의 모든 작업에서 SOTA 성능을 달성할 수 있습니다. 그 중 RefCOCOg 데이터 세트의 지역 수준 캡션 작업에서 115.7 CIDEr가 달성되었으며 이는 RegionGPT, GlaMM, Osprey, Alpha-CLIP 등과 같은 CVPR 2024 방법보다 훨씬 높습니다.

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

  • 논문 제목: DynRefer: Delving into Region-level Multi-modality Tasks via Dynamic Resolution
  • 논문 링크: https://arxiv.org/abs/2405.16071
  • 논문 코드: https ://github.com/callsys/DynRefer

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

Motivation

지역 수준 다중 모달 작업은 지정된 이미지 영역을 인간 기본 설정과 일치하는 언어 설명으로 변환하는 데 전념합니다. 인간은 지역 수준의 다중 모드 작업을 완료할 때 해상도 적응 능력을 가지고 있습니다. 즉, 관심 영역은 고해상도이고 비주의 영역은 저해상도입니다. 그러나 현재의 지역 수준 다중 모드 대형 언어 모델은 고정 해상도 인코딩 방식을 채택하는 경우가 많습니다. 즉, 전체 이미지를 인코딩한 다음 RoI Align을 통해 지역 특징을 추출하는 것입니다. 이 접근 방식은 인간의 시각 인지 시스템에서 해상도 적응 능력이 부족하고, 인코딩 효율성과 관심 영역에 대한 능력이 낮습니다. 고정밀 지역 수준 다중 모드 이해를 달성하기 위해 아래 그림과 같이 인간의 시각 인지 시스템을 시뮬레이션하는 동적 해상도 체계를 제안합니다.

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

区 그림 1: 전통적인 지역적 다중 모드 방법(왼쪽)과 Dynrefer 방법(오른쪽)의 비교.

Method

1. 동적 해상도 이미지를 시뮬레이션합니다(다중 뷰 구성).
주요 사전 학습된 시각적 언어 모델(CLIP)은 균일한 해상도 입력만 받을 수 있으므로 여러 개의 균일한 해상도 뷰를 구성하여 동적 해상도 이미지를 시뮬레이션합니다. 이미지는 참조 영역에서는 해상도가 높고 비참조 영역에서는 해상도가 낮습니다. 구체적인 프로세스는 그림 2에 나와 있습니다. 원본 이미지 x는 잘리고 여러 후보 뷰로 크기가 조정됩니다. 자르기 영역은
로 계산됩니다. 여기서 입니다. 여기서 는 참조 영역의 경계 상자를 나타내고, 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA는 전체 이미지의 크기를 나타내며, t는 보간 계수를 나타냅니다. 훈련 중에 응시 및 빠른 눈 움직임으로 인해 생성된 이미지를 시뮬레이션하기 위해 후보 뷰에서 n개의 뷰를 무작위로 선택합니다. 이러한 n개의 뷰는 보간 계수 t, 즉 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA에 해당합니다. 참조 영역(예: 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA)만 포함된 뷰를 고정적으로 유지합니다. 이 관점은 모든 지역 다중 모드 작업에 중요한 지역 세부 정보를 보존하는 데 도움이 된다는 것이 실험적으로 입증되었습니다. 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA
ㅋㅋ 그림 2: DynRefer 훈련(상위) ) 및 추론(하단).

2. 확률적 다중 뷰 임베딩.
구체적인 프로세스는 그림 3에 나와 있습니다. 샘플링된 n개의 뷰는 고정된 CLIP을 통해 공간 특징으로 인코딩된 다음 RoI-Align 모듈에 의해 처리되어 영역 임베딩(예:
)을 얻습니다. 이는 그림 3의 왼쪽에 나와 있습니다. 이러한 영역 임베딩은 자르기, 크기 조정 및 RoI-Align으로 인해 발생하는 공간 오류로 인해 공간적으로 정렬되지 않습니다. 변형 가능한 컨볼루션 연산에서 영감을 받아 로 정렬하여 편향을 줄이는 정렬 모듈을 제안합니다. 여기서 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA는 참조 영역만 포함하는 뷰 인코딩의 영역 임베딩입니다. 각 영역 임베딩 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA에 대해 먼저 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA과 연결한 후 컨볼루셔널 레이어를 통해 2D 오프셋 맵을 계산합니다. 그런 다음 CVPR 2024 방법을 능가하는 DynRefer는 지역 수준 다중 모드 인식 작업에서 여러 SOTA를 달성합니다.의 공간 특징이 2D 오프셋을 기반으로 리샘플링됩니다. 마지막으로, 정렬된 영역 임베딩은 채널 차원을 따라 연결되고 선형 레이어를 통해 융합됩니다. 출력은 시각적 리샘플링 모듈, 즉 Q-former를 통해 더욱 압축되어 원본 이미지 x(그림 3의 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA)의 참조 영역 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA의 지역 표현을 추출합니다. 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA
ㅋㅋ 그림 3: DynRefer 네트워크 구조

3. 비전-언어 정렬.
확률적 다중 뷰 임베딩 모듈에 의해 계산된 영역 표현
은 그림 3(오른쪽)과 같이 3개의 디코더 에 의해 디코딩되며 각각 3개의 다중 모달 작업에 의해 감독됩니다: 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

i ) 이미지 영역 레이블 세대. 우리는 지역 라벨 생성을 위해 경량 쿼리 기반 인식 디코더를 사용합니다. 디코더
는 그림 3(오른쪽)에 나와 있습니다. 태그 지정 프로세스는 태그를 쿼리로,
키와 값으로 사용하여 사전 정의된 태그의 신뢰도를 계산함으로써 완료됩니다. 인식 디코더를 감독하기 위해 실제 자막의 레이블을 구문 분석합니다. ii) 지역-텍스트 대조 학습. 지역 태그 디코더와 유사하게 디코더
는 쿼리 기반 인식 디코더로 정의됩니다. 디코더는 SigLIP 손실을 사용하여 감독된 자막과 지역 기능 간의 유사성 점수를 계산합니다. iii) 언어 모델링. 사전 훈련된 대규모 언어 모델超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA을 사용하여 지역 표현超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA을 언어 설명으로 변환합니다. 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA
그림 4: 지역 수준 다중 모달 작업에 대한 듀얼 뷰(n=2) DynRefer 모델의 성능. 다양한 보간 계수 t에서 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA. 보기 1은 고정되어 있고(超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA) 보기 2는 무작위로 선택되거나 고정됩니다.

4. 추론 프로세스 중에 훈련된 DynRefer 모델은 동적 해상도의 이미지에 대해 다중 모드 작업을 수행합니다. 샘플링된 n개 뷰의 보간 계수 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA를 조정하면 동적 해상도 특성을 갖는 지역 표현을 얻을 수 있습니다. 다양한 동적 해상도에서 속성을 평가하기 위해 듀얼 뷰(n=2) DynRefer 모델을 교육하고 4가지 다중 모드 작업에 대해 평가했습니다. 그림 4의 곡선에서 볼 수 있듯이 속성 감지는 상황 정보가 없는 뷰에 대해 더 나은 결과를 얻습니다(超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA). 이는 이러한 작업에 종종 상세한 지역 정보가 필요하다는 사실로 설명할 수 있습니다. 지역 수준 캡션 및 조밀한 캡션 작업의 경우 참조 지역을 완전히 이해하려면 상황이 풍부한 보기(超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA)가 필요합니다. 너무 많은 컨텍스트(超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA)가 포함된 보기는 지역과 관련 없는 정보를 너무 많이 도입하기 때문에 모든 작업의 ​​성능을 저하시킨다는 점에 유의하는 것이 중요합니다. 작업 유형이 알려지면 작업 특성에 따라 적절한 보기를 샘플링할 수 있습니다. 작업 유형을 알 수 없는 경우 먼저 다양한 보간 계수 t, 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA에 따라 후보 뷰 세트를 구성합니다. 후보 세트에서 탐욕적 검색 알고리즘을 통해 n개의 뷰가 샘플링됩니다. 검색의 목적 함수는 다음과 같이 정의됩니다.

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA여기서 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA는 i번째 뷰의 보간 계수를 나타내고, 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA는 i번째 뷰를 나타내고, pHASH(・)는 지각 이미지 해시 함수를 나타내고, 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA는 XOR을 나타냅니다. 작업. 글로벌 관점에서 뷰의 정보를 비교하기 위해 "pHASH(・)" 함수를 사용하여 뷰를 공간 영역에서 주파수 영역으로 변환한 후 해시 코드로 인코딩합니다. 이 항목 超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA에서는 중복된 정보가 너무 많이 도입되지 않도록 상황이 풍부한 보기의 가중치를 줄였습니다.

Experiment

지역 수준 캡션

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

지역 자막 생성 작업에서 DynRefer는 RefCOCOg 및 VG 데이터 세트 모두에서 더 작은 모델(4.2B 대 7B)을 사용합니다. METEOR 및 CIDEr 지표는 RegionGPT, GlaMM, Alpha-CLIP 및 Osprey 등과 같은 CVPR 2024의 많은 방법을 크게 능가하여 DynRefer의 엄청난 성능 이점을 보여줍니다.

촘촘한 캡션

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

촘촘한 자막 생성 작업에서 VG1.2 데이터 세트에서 DynRefer는 이전 SOTA 방식인 GRiT에 비해 mAP를 7.1% 향상시켰습니다.

개방형 어휘 속성 탐지

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

지역 속성 탐지 작업에서도 DynRefer가 SOTA 성능을 달성했습니다.

Open Vocabulary Region Recognition

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

영역 인식 작업에서 DynRefer는 CVPR 24의 RegionGPT에 비해 mAP는 15%, 정확도는 8.8% 향상되었으며 ICLR 24의 ASM보다 mAP가 15.7% 더 높습니다.

절제 실험

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

  • 라인 1-6: 고정 뷰보다 무작위 동적 멀티뷰가 더 좋습니다.
  • 라인 6-10: 정보를 최대화하여 보기 선택이 무작위로 보기를 선택하는 것보다 낫습니다.
  • 라인 10-13: 다중 작업 교육을 통해 더 나은 지역 표현을 배울 수 있습니다.

Visualization

다음 그림은 DynRefer가 하나의 모델을 사용하여 지역 자막, 태그, 속성 및 카테고리를 동시에 출력할 수 있는 모습을 보여줍니다.

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

超越CVPR 2024方法,DynRefer在区域级多模态识别任务上,多项SOTA

위 내용은 CVPR 2024 방법을 능가하는 DynRefer는 지역 수준 다중 모드 인식 작업에서 여러 SOTA를 달성합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
무지의 베일 뒤에 직장 AI를 만들어야합니다.무지의 베일 뒤에 직장 AI를 만들어야합니다.Apr 29, 2025 am 11:15 AM

존 롤스 (John Rawls)의 1971 년 책 The Justice의 이론에서 그는 오늘날의 AI 디자인의 핵심으로 취해야 할 사고 실험을 제안하고 의사 결정 : 무지의 베일을 제안했다. 이 철학은 형평성을 이해하기위한 간단한 도구를 제공하며 리더 가이 이해를 사용하여 AI를 공평한 방식으로 설계하고 구현할 수있는 청사진을 제공합니다. 새로운 사회에 대한 규칙을 만들고 있다고 상상해보십시오. 그러나 전제가 있습니다.이 사회에서 어떤 역할을할지 미리 알 수 없습니다. 당신은 부자 또는 가난하거나 건강하거나 장애가있을 수 있으며 다수 또는 소수의 소수에 속할 수 있습니다. 이 "무지의 베일"하에 운영되면 규칙 제조업체가 스스로 이익을 얻는 결정을 내리지 못하게합니다. 반대로, 사람들은 대중을 공식화하도록 더 동기를 부여받을 것입니다

결정, 결정… 실용적인 적용 AI를위한 다음 단계결정, 결정… 실용적인 적용 AI를위한 다음 단계Apr 29, 2025 am 11:14 AM

수많은 회사들이 로봇 프로세스 자동화 (RPA)를 전문으로하며, 반복적 인 작업과 같은 반복적 인 작업 (어디서나 자동화, 파란색 프리즘 등)를 제공하는 봇을 제공합니다. 한편, 프로세스 마이닝, 오케스트레이션 및 지능형 문서 처리 Speciali

에이전트가오고 있습니다 - AI 파트너 옆에서 우리가 할 일에 대해 더 많이에이전트가오고 있습니다 - AI 파트너 옆에서 우리가 할 일에 대해 더 많이Apr 29, 2025 am 11:13 AM

AI의 미래는 간단한 단어 예측과 대화 시뮬레이션을 넘어서고 있습니다. AI 에이전트는 새로운 행동 및 작업 완료가 가능합니다. 이러한 변화는 이미 Anthropic의 Claude와 같은 도구에서 분명합니다. AI 요원 : 연구 a

AI 중심의 미래에 리더를위한 통제보다 공감이 더 중요한 이유AI 중심의 미래에 리더를위한 통제보다 공감이 더 중요한 이유Apr 29, 2025 am 11:12 AM

빠른 기술 발전은 미래의 업무에 대한 미래 지향적 인 관점을 필요로합니다. AI가 단순한 생산성 향상을 초월하고 사회적 구조를 형성하기 시작하면 어떻게됩니까? Topher McDougal의 다가오는 책인 Gaia Wakes :

제품 분류를위한 AI : 기계가 세법을 마스터 할 수 있습니까?제품 분류를위한 AI : 기계가 세법을 마스터 할 수 있습니까?Apr 29, 2025 am 11:11 AM

조화 시스템 (HS)과 같은 시스템의 "HS 8471.30"과 같은 복잡한 코드를 포함하는 제품 분류는 국제 무역 및 국내 판매에 중요합니다. 이 코드는 올바른 세금 신청을 보장하여 모든 inv에 영향을 미칩니다

데이터 센터 요구가 기후 기술 반등을 일으킬 수 있습니까?데이터 센터 요구가 기후 기술 반등을 일으킬 수 있습니까?Apr 29, 2025 am 11:10 AM

데이터 센터 및 기후 기술 투자의 에너지 소비의 미래 이 기사는 AI가 주도하는 데이터 센터의 에너지 소비 급증과 기후 변화에 미치는 영향을 탐구 하고이 과제를 해결하기 위해 혁신적인 솔루션 및 정책 권장 사항을 분석합니다. 에너지 수요의 과제 : 대규모 및 초대형 스케일 데이터 센터는 수십만 명의 일반 북미 가족의 합과 비슷한 대규모 전력을 소비하며, AI 초반 규모 센터는 이보다 수십 배 더 많은 힘을 소비합니다. 2024 년 첫 8 개월 동안 Microsoft, Meta, Google 및 Amazon은 AI 데이터 센터의 건설 및 운영에 약 1,250 억 달러를 투자했습니다 (JP Morgan, 2024) (표 1). 에너지 수요 증가는 도전이자 기회입니다. 카나리아 미디어에 따르면 다가오는 전기

AI와 할리우드의 다음 황금 시대AI와 할리우드의 다음 황금 시대Apr 29, 2025 am 11:09 AM

생성 AI는 영화 및 텔레비전 제작을 혁신하고 있습니다. Luma의 Ray 2 모델과 활주로의 Gen-4, Openai의 Sora, Google의 VEO 및 기타 새로운 모델은 전례없는 속도로 생성 된 비디오의 품질을 향상시키고 있습니다. 이 모델은 복잡한 특수 효과와 현실적인 장면을 쉽게 만들 수 있으며 짧은 비디오 클립과 카메라로 인식 된 모션 효과조차도 달성되었습니다. 이러한 도구의 조작과 일관성은 여전히 ​​개선되어야하지만 진행 속도는 놀랍습니다. 생성 비디오는 독립적 인 매체가되고 있습니다. 일부 모델은 애니메이션 제작에 능숙하고 다른 모델은 라이브 액션 이미지에 능숙합니다. Adobe 's Firefly와 Moonvalley's MA가

chatgpt가 천천히 AI의 가장 큰 예-맨이되고 있습니까?chatgpt가 천천히 AI의 가장 큰 예-맨이되고 있습니까?Apr 29, 2025 am 11:08 AM

ChatGpt 사용자 경험 감소 : 모델 저하 또는 사용자 기대치입니까? 최근에, 많은 ChatGpt 유료 사용자가 성능 저하에 대해 불평하여 광범위한 관심을 끌었습니다. 사용자는 모델에 대한 느린 반응, 짧은 답변, 도움 부족 및 더 많은 환각을보고했습니다. 일부 사용자는 소셜 미디어에 대한 불만을 표명했으며 Chatgpt가“너무 아첨”이되었으며 중요한 피드백을 제공하기보다는 사용자보기를 확인하는 경향이 있습니다. 이는 사용자 경험에 영향을 줄뿐만 아니라 생산성 감소 및 컴퓨팅 리소스 낭비와 같은 회사 고객에게 실제 손실을 가져옵니다. 성능 저하의 증거 많은 사용자들이 ChatGpt 성능, 특히 GPT-4와 같은 이전 모델 (이번 달 말에 서비스에서 곧 중단 될 예정)에서 상당한 악화를보고했습니다. 이것

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

MinGW - Windows용 미니멀리스트 GNU

MinGW - Windows용 미니멀리스트 GNU

이 프로젝트는 osdn.net/projects/mingw로 마이그레이션되는 중입니다. 계속해서 그곳에서 우리를 팔로우할 수 있습니다. MinGW: GCC(GNU Compiler Collection)의 기본 Windows 포트로, 기본 Windows 애플리케이션을 구축하기 위한 무료 배포 가능 가져오기 라이브러리 및 헤더 파일로 C99 기능을 지원하는 MSVC 런타임에 대한 확장이 포함되어 있습니다. 모든 MinGW 소프트웨어는 64비트 Windows 플랫폼에서 실행될 수 있습니다.

SublimeText3 영어 버전

SublimeText3 영어 버전

권장 사항: Win 버전, 코드 프롬프트 지원!

SublimeText3 Linux 새 버전

SublimeText3 Linux 새 버전

SublimeText3 Linux 최신 버전

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

Atom Editor Mac 버전 다운로드

Atom Editor Mac 버전 다운로드

가장 인기 있는 오픈 소스 편집기