중국 의사와 Google 과학자들은 최근 비디오에서 여러 이벤트를 구별하고 설명할 수 있는 사전 훈련된 시각적 언어 모델 Vid2Seq를 제안했습니다. 이 논문은 CVPR 2023에 승인되었습니다.
최근 Google 연구원들은 다중 이벤트 비디오를 설명하기 위해 사전 훈련된 시각적 언어 모델인 Vid2Seq를 제안했으며 이는 CVPR23에서 승인되었습니다.
이전에는 비디오에 다양한 시간 규모에서 발생하는 여러 이벤트가 포함되어 있는 경우가 많았기 때문에 비디오 콘텐츠를 이해하는 것이 어려운 작업이었습니다.
예를 들어 머셔가 개를 썰매에 묶은 후 개가 달리기 시작하는 영상에는 긴 이벤트(개썰매)와 짧은 이벤트(개가 썰매에 묶여 있음)가 포함됩니다.
비디오 이해 연구를 발전시키는 한 가지 방법은 1분 길이의 비디오에서 모든 이벤트를 시간적으로 찾고 설명하는 조밀한 비디오 주석 작업을 이용하는 것입니다.
문서 주소: https://arxiv.org/abs/2302.14115
Vid2Seq 아키텍처는 특수 타임 스탬프를 사용하여 언어 모델을 향상시켜 동일한 출력 시퀀스에서 이벤트 경계와 텍스트 설명을 원활하게 예측할 수 있습니다.
이 통합 모델을 사전 훈련하기 위해 연구원들은 전사된 음성의 문장 경계를 의사 이벤트 경계로 재구성하고 전사된 음성 문장을 의사 이벤트 주석으로 사용하여 레이블이 없는 내레이션 비디오를 활용했습니다. ”
Vid2Seq는 또한 몇 장의 밀도가 높은 비디오 주석 설정, 비디오 세그먼트 주석 작업 및 표준 비디오 주석 작업에도 적합합니다.
촘촘한 비디오 주석을 위한 시각적 언어 모델
Multimodal Transformer 아키텍처는 동작 인식과 같은 다양한 비디오 작업의 SOTA를 새롭게 개선했습니다. 그러나 몇 분 길이의 비디오에서 이벤트를 공동으로 찾고 주석을 추가하는 복잡한 작업에 이러한 아키텍처를 적용하는 것은 간단하지 않습니다.
이 목표를 달성하기 위해 연구자들은 공간 영역의 Pix2Seq와 유사하게 비디오의 개별 타임스탬프를 나타내는 특수 시간 마커(예: 텍스트 마커)를 사용하여 시각적 언어 모델을 향상합니다.
대규모 비디오 사전 훈련
조밀한 비디오 주석을 위한 주석을 수동으로 수집하는 작업은 집약적인 작업 특성으로 인해 특히 비용이 많이 듭니다.
따라서 연구원들은 대규모로 쉽게 사용할 수 있는 레이블이 없는 내레이션 비디오를 사용하여 Vid2Seq 모델을 사전 훈련했습니다. 또한 광범위한 도메인을 다루는 1,800만 개의 내레이션 비디오가 포함된 YT-Temporal-1B 데이터 세트를 사용했습니다.
다운스트림 작업에 대한 벤치마크 결과
사전 훈련된 Vid2Seq 결과 모델은 교사 강제를 사용하는 간단한 최대 우도 목표를 통해 다운스트림 작업에서 미세 조정할 수 있습니다(예: 이전 정답 토큰이 다음 토큰을 예측하는 경우).
미세 조정 후 Vid2Seq는 3개의 표준 다운스트림 밀도 비디오 주석 벤치마크(ActivityNet Captions, YouCook2 및 ViTT)와 2개의 비디오 클립 주석 벤치마크(MSR-VTT, MSVD)에서 SOTA를 능가합니다.
논문에는 추가적인 절제 연구, 정성적 결과, 퓨샷 설정 및 비디오 단락 주석 작업 결과가 나와 있습니다.
정성 테스트
결과는 Vid2Seq가 의미 있는 이벤트 경계 및 주석을 예측할 수 있으며 예측된 주석 및 경계가 전사된 음성 입력과 크게 다르다는 것을 보여줍니다(이는 또한 입력에서 시각적 마커의 중요성을 보여줍니다).
다음 예는 요리 레시피의 일련의 지침에 대한 것입니다. 이는 YouCook2 검증 세트에 대한 Vid2Seq의 조밀한 이벤트 주석 예측의 예입니다.
다음은 요리 레시피에 대한 Vid2Seq의 조밀한 이벤트 주석입니다. ActivityNet 캡션 검증 세트 예측 예제, 이 모든 비디오에는 녹음된 음성이 없습니다.
그러나 여전히 실패하는 경우가 있습니다. 예를 들어 Vid2Seq에 따르면 아래 빨간색으로 표시된 사진은 카메라 앞에서 모자를 벗는 사람입니다.
SOTA 벤치마킹
표 5는 Vid2Seq를 가장 진보된 고밀도 비디오 주석 방법과 비교합니다. Vid2Seq는 YouCook2, ViTT 및 ActivityNet Captions의 세 가지 데이터 세트에서 SOTA를 새로 고칩니다.
YouCook2 및 ActivityNet 캡션에 대한 Vid2Seq의 SODA 지표는 PDVC 및 UEDVC보다 각각 3.5포인트 및 0.3포인트 더 높습니다. 그리고 E2ESG는 Wikihow에서 도메인 내 일반 텍스트 사전 학습을 사용하며 Vid2Seq는 이 방법보다 낫습니다. 이러한 결과는 사전 훈련된 Vid2Seq 모델이 밀집 이벤트에 레이블을 지정하는 강력한 능력을 가지고 있음을 보여줍니다.
표 6은 조밀한 비디오 주석 모델의 이벤트 위치 파악 성능을 평가합니다. YouCook2 및 ViTT와 비교하여 Vid2Seq는 단일 시퀀스 생성 작업으로 조밀한 비디오 주석을 처리하는 데 탁월합니다.
그러나 Vid2Seq는 PDVC 및 UEDVC에 비해 ActivityNet 캡션에서 제대로 작동하지 않습니다. 이 두 가지 방법에 비해 Vid2Seq는 시간적 위치 파악에 대한 사전 지식이 덜 통합된 반면, 다른 두 가지 방법에는 이벤트 카운터와 같은 작업별 구성 요소가 포함되거나 위치 확인 하위 작업에 대해 별도로 모델을 교육합니다.
구현 세부 정보
- Architecture
시각적 시간 변환기 인코더, 텍스트 인코더 및 텍스트 디코더는 모두 12개의 레이어, 12개의 헤드, 임베딩 차원 768, MLP 숨겨진 차원 2048을 갖습니다.
텍스트 인코더 및 디코더의 시퀀스는 사전 훈련 중에 L=S=1000 토큰으로 잘리거나 채워지고 미세 조정 중에 S=1000 및 L=256 토큰으로 채워집니다. 추론 중에는 빔 검색 디코딩이 사용되며 처음 4개 시퀀스가 추적되고 0.6의 길이 정규화가 적용됩니다.
- Training
저자는 가중치 감소 없이 Adam 최적화 프로그램인 β=(0.9, 0.999)를 사용합니다.
사전 훈련 중에는 1e^-4의 학습률이 사용되며 처음 1000회 반복 동안 선형적으로 워밍업(0부터 시작)되고 나머지 반복 동안 일정하게 유지됩니다.
미세 조정 중에 학습률 3e^-4를 사용하고 처음 10% 반복에서는 선형적으로 워밍업(0부터 시작)하고 나머지 90% 반복에서는 코사인 감쇠(0까지)를 유지합니다. 이 과정에서 32개 동영상의 배치 크기가 사용되어 16개의 TPU v4 칩에 나누어집니다.
저자는 YouCook2에 40번의 에포크 조정, ActivityNet Captions 및 ViTT에 20번의 에포크 조정, MSR-VTT에 5번의 에포크 조정, MSVD에 10번의 에포크 조정을 했습니다.
결론
Google이 제안한 Vid2Seq는 Dense Video Annotation을 위한 새로운 시각적 언어 모델로, 라벨이 지정되지 않은 내레이션 비디오에 대해 대규모 사전 학습을 효과적으로 수행할 수 있으며 다양한 다운스트림 Dense Video Annotation을 수행할 수 있다는 벤치마크 결과를 얻었습니다.
저자 소개
논문의 제1저자: Antoine Yang
Antoine Yang은 파리의 Inria 및 École Normale Supérieure의 WILLOW 팀에서 박사 과정을 밟고 있는 3학년 학생입니다. 그의 지도교수는 Antoine Miech, Josef Sivic, Ivan Laptev 및 Cordelia Schmid입니다.
현재 연구는 비디오 이해를 위한 시각적 언어 모델 학습에 중점을 두고 있습니다. 그는 2019년 화웨이 노아의 방주 연구소에서 인턴으로 일했고, 파리 에콜 폴리테크니크에서 공학 학위를, 2020년 파리 사클레 국립대학교에서 수학, 비전, 학습 분야 석사 학위를 받았으며, 2022년에는 구글 리서치에서 인턴으로 일했다.
위 내용은 Google, 멀티 모달 Vid2Seq 출시, 온라인으로 비디오 IQ 이해, 자막은 CVPR 2023에 존재하지 않음 |의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

법률 기술 혁명은 법률 전문가가 AI 솔루션을 적극적으로 수용하도록 추진력을 얻고 있습니다. 수동 저항은 더 이상 경쟁력을 유지하려는 사람들에게는 실행 가능한 옵션이 아닙니다. 기술 채택이 중요한 이유는 무엇입니까? 법률 전문가

많은 사람들은 AI와의 상호 작용이 익명이며 인간의 의사 소통과는 대조적이라고 가정합니다. 그러나 AI는 모든 채팅 중에 사용자를 적극적으로 프로파일 링합니다. 모든 프롬프트, 모든 단어는 분석 및 분류됩니다. AI Revo 의이 중요한 측면을 살펴 보겠습니다

성공적인 인공 지능 전략은 강력한 기업 문화 지원과 분리 될 수 없습니다. Peter Drucker가 말했듯이 비즈니스 운영은 사람들에게 달려 있으며 인공 지능의 성공도 마찬가지입니다. 인공 지능을 적극적으로 수용하는 조직의 경우 AI에 적응하는 기업 문화를 구축하는 것이 중요하며 AI 전략의 성공 또는 실패조차 결정합니다. West Monroe는 최근에 번성하는 AI 친화적 인 기업 문화를 구축하기위한 실용적인 가이드를 발표했으며 다음은 다음과 같습니다. 1. AI의 성공 모델을 명확하게 설명하십시오. 우선, AI가 비즈니스를 강화할 수있는 방법에 대한 명확한 비전이 있어야합니다. 이상적인 AI 운영 문화는 인간과 AI 시스템 간의 작업 프로세스를 자연스럽게 통합 할 수 있습니다. AI는 특정 작업에 능숙하지만 인간은 창의성과 판단에 능숙합니다.

메타 업그레이드 AI 보조 응용 프로그램 및 웨어러블 AI의 시대가오고 있습니다! ChatGpt와 경쟁하도록 설계된이 앱은 텍스트, 음성 상호 작용, 이미지 생성 및 웹 검색과 같은 표준 AI 기능을 제공하지만 이제 지리적 위치 기능을 처음으로 추가했습니다. 이것은 메타 AI가 자신의 위치와 질문에 대답 할 때보고있는 내용을 알고 있음을 의미합니다. 귀하의 관심사, 위치, 프로필 및 활동 정보를 사용하여 이전에는 불가능한 최신 상황 정보를 제공합니다. 이 앱은 또한 실시간 번역을 지원하여 Ray-Ban 안경의 AI 경험을 완전히 바꾸고 유용성을 크게 향상 시켰습니다. 외국 영화에 대한 관세 부과는 미디어와 문화에 대한 권력의 알몸 운동입니다. 구현되면 AI 및 가상 프로덕션으로 가속됩니다.

인공 지능은 사이버 범죄 분야를 혁신하여 새로운 방어 기술을 배우도록 강요하고 있습니다. 사이버 범죄자들은 깊은 위조 및 지능형 사이버 공격과 같은 강력한 인공 지능 기술을 사용하여 전례없는 규모로 사기 및 파괴를 사용하고 있습니다. 글로벌 비즈니스의 87%가 지난해 AI 사이버 범죄를 목표로 한 것으로보고되었습니다. 그렇다면이 현명한 범죄의 물결의 희생자가되는 것을 어떻게 피할 수 있습니까? 개인 및 조직 차원에서 위험을 식별하고 보호 조치를 취하는 방법을 살펴 보겠습니다. 사이버 범죄자가 인공 지능을 사용하는 방법 기술이 발전함에 따라 범죄자들은 개인, 기업 및 정부를 공격 할 수있는 새로운 방법을 지속적으로 찾고 있습니다. 인공 지능의 광범위한 사용은 최신 측면 일 수 있지만 잠재적 인 피해는 전례가 없습니다. 특히 인공 지능

인공 지능 (AI)과 인간 지능 (NI) 사이의 복잡한 관계는 피드백 루프로 가장 잘 이해됩니다. 인간은 AI를 만들어 인간 활동에 의해 생성 된 데이터에 대해 인간 능력을 향상 시키거나 복제합니다. 이 ai

최첨단 AI 모델을 둘러싼 이해의 부족을 강조한 Anthropic의 최근 진술은 전문가들 사이에서 격렬한 논쟁을 불러 일으켰습니다. 이 불투명도는 진정한 기술 위기입니까, 아니면 단순히 더 많은 소프로가는 길에 일시적인 장애물입니까?

인도는 풍부한 언어 태피스트리를 가진 다양한 국가로 지역 간의 원활한 의사 소통을 지속적으로 도전합니다. 그러나 Sarvam의 Bulbul-V2


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

mPDF
mPDF는 UTF-8로 인코딩된 HTML에서 PDF 파일을 생성할 수 있는 PHP 라이브러리입니다. 원저자인 Ian Back은 자신의 웹 사이트에서 "즉시" PDF 파일을 출력하고 다양한 언어를 처리하기 위해 mPDF를 작성했습니다. HTML2FPDF와 같은 원본 스크립트보다 유니코드 글꼴을 사용할 때 속도가 느리고 더 큰 파일을 생성하지만 CSS 스타일 등을 지원하고 많은 개선 사항이 있습니다. RTL(아랍어, 히브리어), CJK(중국어, 일본어, 한국어)를 포함한 거의 모든 언어를 지원합니다. 중첩된 블록 수준 요소(예: P, DIV)를 지원합니다.

VSCode Windows 64비트 다운로드
Microsoft에서 출시한 강력한 무료 IDE 편집기

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

맨티스BT
Mantis는 제품 결함 추적을 돕기 위해 설계된 배포하기 쉬운 웹 기반 결함 추적 도구입니다. PHP, MySQL 및 웹 서버가 필요합니다. 데모 및 호스팅 서비스를 확인해 보세요.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경