>  기사  >  기술 주변기기  >  CLIP은 RNN으로 사용될 때 CVPR로 선택되었습니다. Oxford University 및 Google Research 없이 수많은 개념을 분할할 수 있습니다 |

CLIP은 RNN으로 사용될 때 CVPR로 선택되었습니다. Oxford University 및 Google Research 없이 수많은 개념을 분할할 수 있습니다 |

PHPz
PHPz원래의
2024-06-09 12:53:28335검색

추가 교육 없이도 수많은 개념을 효과적으로 분할하려면 루프에서 CLIP을 호출하세요.

영화 캐릭터, 랜드마크, 브랜드, 일반 카테고리 등 모든 문구.

CLIP은 RNN으로 사용될 때 CVPR로 선택되었습니다. Oxford University 및 Google Research 없이 수많은 개념을 분할할 수 있습니다 |

옥스포드 대학과 Google Research의 공동 팀의 이 새로운 결과는 CVPR 2024에서 승인되었으며 코드는 오픈 소스로 제공되었습니다.

CLIP은 RNN으로 사용될 때 CVPR로 선택되었습니다. Oxford University 및 Google Research 없이 수많은 개념을 분할할 수 있습니다 |

팀은 개방형 어휘 이미지 분할 분야의 몇 가지 주요 문제를 해결하는 RNN(줄여서 CaR)이라는 새로운 기술을 제안했습니다.

  • 교육 데이터가 필요하지 않습니다. 기존 방법에는 많은 양의 데이터가 필요합니다. 미세 조정을 위한 마스크 주석 또는 이미지-텍스트 데이터 세트, CaR 기술은 추가 교육 데이터 없이 작동합니다.
  • 공개 어휘의 제한 사항: 사전 훈련된 VLM(시각 언어 모델)은 미세 조정 후 공개 어휘를 처리하는 능력이 제한됩니다. CaR 기술은 VLM의 광범위한 어휘 공간을 보존합니다.
  • 이미지에 없는 개념에 대한 텍스트 쿼리 처리: 미세 조정 없이는 VLM이 이미지에 없는 개념을 정확하게 분할하기 어렵습니다. CaR은 분할 품질을 향상시키기 위한 반복 프로세스를 통해 점차 최적화됩니다.

RNN에서 영감을 받아 CLIP을 주기적으로 호출

CaR의 원리를 이해하려면 먼저 순환 신경망 RNN을 검토해야 합니다.

RNN은 과거 시간 단계의 정보를 저장하는 "기억"과 같은 숨겨진 상태의 개념을 도입합니다. 그리고 각 시간 단계는 동일한 가중치 세트를 공유하므로 시퀀스 데이터를 잘 모델링할 수 있습니다.

RNN에서 영감을 받은 CaR은 두 부분으로 구성된 순환 프레임워크로 설계되었습니다.

  • 마스크 제안 생성기: CLIP의 도움으로 각 텍스트 쿼리에 대한 마스크를 생성합니다.
  • 마스크 분류기: 그런 다음 CLIP 모델을 사용하여 생성된 각 마스크와 해당 텍스트 쿼리의 일치 정도를 평가합니다. 일치도가 낮으면 텍스트 쿼리가 제거됩니다.

이렇게 계속 반복하다 보면 텍스트 쿼리도 점점 더 정확해지고, 마스크의 품질도 점점 더 높아질 것입니다.

마지막으로 쿼리 세트가 더 이상 변경되지 않으면 최종 분할 결과가 출력될 수 있습니다.

CLIP은 RNN으로 사용될 때 CVPR로 선택되었습니다. Oxford University 및 Google Research 없이 수많은 개념을 분할할 수 있습니다 |

이 재귀적 프레임워크를 설계한 이유는 CLIP 사전 훈련의 "지식"을 최대한 유지하기 위한 것입니다.

CLIP 사전 트레이닝에는 연예인, 랜드마크부터 애니메이션 캐릭터까지 모든 것을 포괄하는 많은 컨셉이 있습니다. 분할된 데이터 세트를 미세 조정하면 어휘가 크게 줄어들 수 있습니다.

예를 들어, "모든 것을 나누는" SAM 모델은 코카콜라 한 병만 인식할 수 있지만 펩시콜라 한 병도 인식할 수 없습니다.

CLIP은 RNN으로 사용될 때 CVPR로 선택되었습니다. Oxford University 및 Google Research 없이 수많은 개념을 분할할 수 있습니다 |

하지만 CLIP을 직접 사용하여 분할하는 경우에는 효과가 만족스럽지 않습니다.

CLIP의 사전 학습 목표는 원래 조밀한 예측을 위해 설계되지 않았기 때문입니다. 특히 특정 텍스트 쿼리가 이미지에 존재하지 않는 경우 CLIP은 잘못된 마스크를 쉽게 생성할 수 있습니다.

CaR은 RNN 스타일 반복을 통해 이 문제를 영리하게 해결합니다. 마스크를 개선하면서 쿼리를 반복적으로 평가하고 필터링함으로써 최종적으로 고품질의 개방형 어휘 분할이 달성됩니다.

마지막으로 팀의 해석을 따라가며 CaR 프레임워크의 세부 사항에 대해 알아 보겠습니다.

CaR 기술 세부 사항

CLIP은 RNN으로 사용될 때 CVPR로 선택되었습니다. Oxford University 및 Google Research 없이 수많은 개념을 분할할 수 있습니다 |

  • 반복 신경망 프레임워크: CaR은 반복 프로세스를 통해 텍스트 쿼리와 이미지 간의 대응을 지속적으로 최적화하기 위해 새로운 순환 프레임워크를 채택합니다.
  • 2단계 분할기: 사전 학습된 CLIP 모델을 기반으로 구축된 마스크 제안 생성기와 마스크 분류기로 구성되며 반복 프로세스 중에 가중치는 변경되지 않습니다.
  • 마스크 제안 생성: gradCAM 기술을 사용하여 이미지와 텍스트 특징의 유사성 점수를 기반으로 마스크 제안을 생성합니다.
  • 시각적 신호: 빨간색 원, 배경 흐림 등과 같은 시각적 신호를 적용하여 이미지의 특정 영역에 모델의 초점을 강화합니다.
  • 임계값 기능: 유사성 임계값을 설정하여 텍스트 쿼리와 매우 일치하는 마스크 제안을 필터링합니다.
  • 후처리: 조밀한 CRF(조건부 무작위 필드) 및 선택적 SAM 모델을 사용하여 마스크 개선.

이러한 기술적 수단을 통해 CaR 기술은 기존의 제로샷 학습 방식을 뛰어넘어 여러 표준 데이터 세트에서 상당한 성능 향상을 달성했으며, 광범위한 데이터 미세 조정을 거친 모델과 비교하여 경쟁력도 향상되었습니다. 아래 표에서 볼 수 있듯이 추가 훈련 및 미세 조정이 필요하지 않지만 CaR은 추가 데이터에 대해 미세 조정된 이전 방법보다 제로 샷 의미론적 분할의 8가지 다른 지표에서 더 강력한 성능을 보여줍니다.

CLIP은 RNN으로 사용될 때 CVPR로 선택되었습니다. Oxford University 및 Google Research 없이 수많은 개념을 분할할 수 있습니다 |

저자는 CaR이 제로 샘플 참조 분할에 미치는 영향도 테스트했습니다. CaR도 이전 제로 샘플 방법보다 강력한 성능을 보여주었습니다.

CLIP은 RNN으로 사용될 때 CVPR로 선택되었습니다. Oxford University 및 Google Research 없이 수많은 개념을 분할할 수 있습니다 |

요약하자면, CaR(CLIP as RNN)은 추가 훈련 데이터 없이 제로샷 의미론적 및 참조 이미지 분할 작업을 효과적으로 수행할 수 있는 혁신적인 순환 신경망 프레임워크입니다. 사전 훈련된 시각적 언어 모델의 광범위한 어휘 공간을 보존하고 반복 프로세스를 활용하여 텍스트 쿼리와 마스크 제안의 정렬을 지속적으로 최적화함으로써 분할 품질을 크게 향상시킵니다.

CaR의 장점은 미세 조정 없이 복잡한 텍스트 쿼리를 처리할 수 있는 능력과 비디오 분야로의 확장성으로, 개방형 어휘 이미지 분할 분야에 획기적인 발전을 가져옵니다.

논문 링크: https://arxiv.org/abs/2312.07661.
프로젝트 홈페이지: https://torrvision.com/clip_as_rnn/.

위 내용은 CLIP은 RNN으로 사용될 때 CVPR로 선택되었습니다. Oxford University 및 Google Research 없이 수많은 개념을 분할할 수 있습니다 |의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.