찾다
기술 주변기기일체 포함Google, 멀티 모달 Vid2Seq 출시, 온라인으로 비디오 IQ 이해, 자막은 CVPR 2023에 존재하지 않음 |

중국 의사와 Google 과학자들은 최근 비디오에서 여러 이벤트를 구별하고 설명할 수 있는 사전 훈련된 시각적 언어 모델 Vid2Seq를 제안했습니다. 이 논문은 CVPR 2023에 승인되었습니다.

최근 Google 연구원들은 다중 이벤트 비디오를 설명하기 위해 사전 훈련된 시각적 언어 모델인 Vid2Seq를 제안했으며 이는 CVPR23에서 승인되었습니다.

이전에는 비디오에 다양한 시간 규모에서 발생하는 여러 이벤트가 포함되어 있는 경우가 많았기 때문에 비디오 콘텐츠를 이해하는 것이 어려운 작업이었습니다.

예를 들어 머셔가 개를 썰매에 묶은 후 개가 달리기 시작하는 영상에는 긴 이벤트(개썰매)와 짧은 이벤트(개가 썰매에 묶여 있음)가 포함됩니다.

비디오 이해 연구를 발전시키는 한 가지 방법은 1분 길이의 비디오에서 모든 이벤트를 시간적으로 찾고 설명하는 조밀한 비디오 주석 작업을 이용하는 것입니다.

Google, 멀티 모달 Vid2Seq 출시, 온라인으로 비디오 IQ 이해, 자막은 CVPR 2023에 존재하지 않음 |

문서 주소: https://arxiv.org/abs/2302.14115

Vid2Seq 아키텍처는 특수 타임 스탬프를 사용하여 언어 모델을 향상시켜 동일한 출력 시퀀스에서 이벤트 경계와 텍스트 설명을 원활하게 예측할 수 있습니다.

이 통합 모델을 사전 훈련하기 위해 연구원들은 전사된 음성의 문장 경계를 의사 이벤트 경계로 재구성하고 전사된 음성 문장을 의사 이벤트 주석으로 사용하여 레이블이 없는 내레이션 비디오를 활용했습니다. ”

Vid2Seq는 또한 몇 장의 밀도가 높은 비디오 주석 설정, 비디오 세그먼트 주석 작업 및 표준 비디오 주석 작업에도 적합합니다. Google, 멀티 모달 Vid2Seq 출시, 온라인으로 비디오 IQ 이해, 자막은 CVPR 2023에 존재하지 않음 |

촘촘한 비디오 주석을 위한 시각적 언어 모델

Multimodal Transformer 아키텍처는 동작 인식과 같은 다양한 비디오 작업의 SOTA를 새롭게 개선했습니다. 그러나 몇 분 길이의 비디오에서 이벤트를 공동으로 찾고 주석을 추가하는 복잡한 작업에 이러한 아키텍처를 적용하는 것은 간단하지 않습니다.

이 목표를 달성하기 위해 연구자들은 공간 영역의 Pix2Seq와 유사하게 비디오의 개별 타임스탬프를 나타내는 특수 시간 마커(예: 텍스트 마커)를 사용하여 시각적 언어 모델을 향상합니다. Google, 멀티 모달 Vid2Seq 출시, 온라인으로 비디오 IQ 이해, 자막은 CVPR 2023에 존재하지 않음 |

주어진 시각적 입력에 대해 결과 Vid2Seq 모델은 입력을 받아들이고 텍스트 및 시간 태그가 지정된 시퀀스를 생성할 수 있습니다.

첫째, 이를 통해 Vid2Seq 모델은 단일 토큰 시퀀스로 투영되는 전사된 음성 입력의 시간 정보를 이해할 수 있습니다. 둘째, 이를 통해 Vid2Seq는 단일 마커 시퀀스를 생성하는 동시에 비디오 내에서 일시적으로 조밀한 이벤트 주석을 공동으로 예측할 수 있습니다.

Vid2Seq 아키텍처에는 비디오 프레임과 기록된 음성 입력을 각각 인코딩하는 시각적 인코더와 텍스트 인코더가 포함되어 있습니다. 그런 다음 결과 인코딩은 텍스트 디코더로 전달되며, 텍스트 디코더는 조밀한 이벤트 주석의 출력 순서와 비디오에서의 시간적 위치를 자동으로 예측합니다. 아키텍처는 강력한 시각적 백본과 강력한 언어 모델로 초기화됩니다.

대규모 비디오 사전 훈련

조밀한 비디오 주석을 위한 주석을 수동으로 수집하는 작업은 집약적인 작업 특성으로 인해 특히 비용이 많이 듭니다.

따라서 연구원들은 대규모로 쉽게 사용할 수 있는 레이블이 없는 내레이션 비디오를 사용하여 Vid2Seq 모델을 사전 훈련했습니다. 또한 광범위한 도메인을 다루는 1,800만 개의 내레이션 비디오가 포함된 YT-Temporal-1B 데이터 세트를 사용했습니다. Google, 멀티 모달 Vid2Seq 출시, 온라인으로 비디오 IQ 이해, 자막은 CVPR 2023에 존재하지 않음 |

연구원들은 기록된 음성 문장과 해당 타임스탬프를 감독으로 사용하여 단일 토큰 시퀀스로 투영됩니다.

그런 다음 Vid2Seq는 디코더가 시각적 입력에 따라 전사된 음성 시퀀스만 예측하도록 가르치는 생성 목표와 다중 모달 학습을 장려하는 잡음 제거 목표로 사전 훈련되어 모델이 시끄러운 전사 음성을 예측하도록 요구합니다. 맥락에서 마스크를 예측합니다. 시퀀스 및 시각적 입력. 특히, 스팬 토큰을 무작위로 마스킹하여 음성 시퀀스에 노이즈를 추가합니다.

다운스트림 작업에 대한 벤치마크 결과

사전 훈련된 Vid2Seq 결과 모델은 교사 강제를 사용하는 간단한 최대 우도 목표를 통해 다운스트림 작업에서 미세 조정할 수 있습니다(예: 이전 정답 토큰이 다음 토큰을 예측하는 경우).

미세 조정 후 Vid2Seq는 3개의 표준 다운스트림 밀도 비디오 주석 벤치마크(ActivityNet Captions, YouCook2 및 ViTT)와 2개의 비디오 클립 주석 벤치마크(MSR-VTT, MSVD)에서 SOTA를 능가합니다.

논문에는 추가적인 절제 연구, 정성적 결과, 퓨샷 설정 및 비디오 단락 주석 작업 결과가 나와 있습니다.

정성 테스트

결과는 Vid2Seq가 의미 있는 이벤트 경계 및 주석을 예측할 수 있으며 예측된 주석 및 경계가 전사된 음성 입력과 크게 다르다는 것을 보여줍니다(이는 또한 입력에서 시각적 마커의 중요성을 보여줍니다).

Google, 멀티 모달 Vid2Seq 출시, 온라인으로 비디오 IQ 이해, 자막은 CVPR 2023에 존재하지 않음 |

다음 예는 요리 레시피의 일련의 지침에 대한 것입니다. 이는 YouCook2 검증 세트에 대한 Vid2Seq의 조밀한 이벤트 주석 예측의 예입니다.

Google, 멀티 모달 Vid2Seq 출시, 온라인으로 비디오 IQ 이해, 자막은 CVPR 2023에 존재하지 않음 |

다음은 요리 레시피에 대한 Vid2Seq의 조밀한 이벤트 주석입니다. ActivityNet 캡션 검증 세트 예측 예제, 이 모든 비디오에는 녹음된 음성이 없습니다.

그러나 여전히 실패하는 경우가 있습니다. 예를 들어 Vid2Seq에 따르면 아래 빨간색으로 표시된 사진은 카메라 앞에서 모자를 벗는 사람입니다.

SOTA 벤치마킹

표 5는 Vid2Seq를 가장 진보된 고밀도 비디오 주석 방법과 비교합니다. Vid2Seq는 YouCook2, ViTT 및 ActivityNet Captions의 세 가지 데이터 세트에서 SOTA를 새로 고칩니다.

Google, 멀티 모달 Vid2Seq 출시, 온라인으로 비디오 IQ 이해, 자막은 CVPR 2023에 존재하지 않음 |

YouCook2 및 ActivityNet 캡션에 대한 Vid2Seq의 SODA 지표는 PDVC 및 UEDVC보다 각각 3.5포인트 및 0.3포인트 더 높습니다. 그리고 E2ESG는 Wikihow에서 도메인 내 일반 텍스트 사전 학습을 사용하며 Vid2Seq는 이 방법보다 낫습니다. 이러한 결과는 사전 훈련된 Vid2Seq 모델이 밀집 이벤트에 레이블을 지정하는 강력한 능력을 가지고 있음을 보여줍니다.

표 6은 조밀한 비디오 주석 모델의 이벤트 위치 파악 성능을 평가합니다. YouCook2 및 ViTT와 비교하여 Vid2Seq는 단일 시퀀스 생성 작업으로 조밀한 비디오 주석을 처리하는 데 탁월합니다.

Google, 멀티 모달 Vid2Seq 출시, 온라인으로 비디오 IQ 이해, 자막은 CVPR 2023에 존재하지 않음 |

그러나 Vid2Seq는 PDVC 및 UEDVC에 비해 ActivityNet 캡션에서 제대로 작동하지 않습니다. 이 두 가지 방법에 비해 Vid2Seq는 시간적 위치 파악에 대한 사전 지식이 덜 통합된 반면, 다른 두 가지 방법에는 이벤트 카운터와 같은 작업별 구성 요소가 포함되거나 위치 확인 하위 작업에 대해 별도로 모델을 교육합니다.

구현 세부 정보

  • Architecture

시각적 시간 변환기 인코더, 텍스트 인코더 및 텍스트 디코더는 모두 12개의 레이어, 12개의 헤드, 임베딩 차원 768, MLP 숨겨진 차원 2048을 갖습니다.

텍스트 인코더 및 디코더의 시퀀스는 사전 훈련 중에 L=S=1000 토큰으로 잘리거나 채워지고 미세 조정 중에 S=1000 및 L=256 토큰으로 채워집니다. 추론 중에는 빔 검색 디코딩이 사용되며 처음 4개 시퀀스가 ​​추적되고 0.6의 길이 정규화가 적용됩니다.

  • Training

저자는 가중치 감소 없이 Adam 최적화 프로그램인 β=(0.9, 0.999)를 사용합니다.

사전 훈련 중에는 1e^-4의 학습률이 사용되며 처음 1000회 반복 동안 선형적으로 워밍업(0부터 시작)되고 나머지 반복 동안 일정하게 유지됩니다.

미세 조정 중에 학습률 3e^-4를 사용하고 처음 10% 반복에서는 선형적으로 워밍업(0부터 시작)하고 나머지 90% 반복에서는 코사인 감쇠(0까지)를 유지합니다. 이 과정에서 32개 동영상의 배치 크기가 사용되어 16개의 TPU v4 칩에 나누어집니다.

저자는 YouCook2에 40번의 에포크 조정, ActivityNet Captions 및 ViTT에 20번의 에포크 조정, MSR-VTT에 5번의 에포크 조정, MSVD에 10번의 에포크 조정을 했습니다.

결론

Google이 제안한 Vid2Seq는 Dense Video Annotation을 위한 새로운 시각적 언어 모델로, 라벨이 지정되지 않은 내레이션 비디오에 대해 대규모 사전 학습을 효과적으로 수행할 수 있으며 다양한 다운스트림 Dense Video Annotation을 수행할 수 있다는 벤치마크 결과를 얻었습니다.

저자 소개

논문의 제1저자: Antoine Yang

Google, 멀티 모달 Vid2Seq 출시, 온라인으로 비디오 IQ 이해, 자막은 CVPR 2023에 존재하지 않음 |

Antoine Yang은 파리의 Inria 및 École Normale Supérieure의 WILLOW 팀에서 박사 과정을 밟고 있는 3학년 학생입니다. 그의 지도교수는 Antoine Miech, Josef Sivic, Ivan Laptev 및 Cordelia Schmid입니다.

현재 연구는 비디오 이해를 위한 시각적 언어 모델 학습에 중점을 두고 있습니다. 그는 2019년 화웨이 노아의 방주 연구소에서 인턴으로 일했고, 파리 에콜 폴리테크니크에서 공학 학위를, 2020년 파리 사클레 국립대학교에서 수학, 비전, 학습 분야 석사 학위를 받았으며, 2022년에는 구글 리서치에서 인턴으로 일했다.

위 내용은 Google, 멀티 모달 Vid2Seq 출시, 온라인으로 비디오 IQ 이해, 자막은 CVPR 2023에 존재하지 않음 |의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
이 기사는 51cto에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제
在 Windows 11 上彻底删除不需要的显示语言的方法在 Windows 11 上彻底删除不需要的显示语言的方法Sep 24, 2023 pm 04:25 PM

在同一设置上工作太久或与他人共享PC。您可能会安装一些语言包,这通常会产生冲突。因此,是时候删除Windows11中不需要的显示语言了。说到冲突,当有多个语言包时,无意中按Ctrl+Shift会更改键盘布局。如果不注意,这将是手头任务的障碍。所以,让我们直接进入方法!如何从Windows11中删除显示语言?1.从设置按+打开“设置”应用,从导航窗格中转到“时间和语言”,然后单击“语言和地区”。WindowsI单击要删除的显示语言旁边的省略号,然后从弹出菜单中选择“删除”。在出现的确认提示中单击“

给语言大模型加上综合视听能力,达摩院开源Video-LLaMA给语言大模型加上综合视听能力,达摩院开源Video-LLaMAJun 09, 2023 pm 09:28 PM

视频在当今社交媒体和互联网文化中扮演着愈发重要的角色,抖音,快手,B站等已经成为数以亿计用户的热门平台。用户围绕视频分享自己的生活点滴、创意作品、有趣瞬间等内容,与他人互动和交流。近期,大语言模型展现出了令人瞩目的能力。我们能否给大模型装上“眼睛”和“耳朵”,让它能够理解视频,陪着用户互动呢?从这个问题出发,达摩院的研究人员提出了Video-LLaMA,一个具有综合视听能力大模型。Video-LLaMA能够感知和理解视频中的视频和音频信号,并能理解用户输入的指令,完成一系列基于音视频的复杂任务,

光动嘴就能玩原神!用AI切换角色,还能攻击敌人,网友:“绫华,使用神里流·霜灭”光动嘴就能玩原神!用AI切换角色,还能攻击敌人,网友:“绫华,使用神里流·霜灭”May 13, 2023 pm 07:52 PM

说到这两年风靡全球的国产游戏,原神肯定是当仁不让。根据5月公布的本年度Q1季度手游收入调查报告,在抽卡手游里《原神》以5.67亿美金的绝对优势稳稳拿下第一,这也宣告《原神》在上线短短18个月之后单在手机平台总收入就突破30亿美金(大约RM130亿)。如今,开放须弥前最后的2.8海岛版本姗姗来迟,在漫长的长草期后终于又有新的剧情和区域可以肝了。不过不知道有多少“肝帝”,现在海岛已经满探索,又开始长草了。宝箱总共182个+1个摩拉箱(不计入)长草期根本没在怕的,原神区从来不缺整活儿。这不,在长草期间

吵翻天!ChatGPT到底懂不懂语言?PNAS:先研究什么是「理解」吧吵翻天!ChatGPT到底懂不懂语言?PNAS:先研究什么是「理解」吧Apr 07, 2023 pm 06:21 PM

机器会不会思考这个问题就像问潜水艇会不会游泳一样。——Dijkstra早在ChatGPT发布之前,业界就已经嗅到了大模型带来的变革。去年10月14日,圣塔菲研究所(Santa Fe Institute)的教授Melanie Mitchell和David C. Krakauer在arXiv发布了一篇综述,全面调研了所有关于「大规模预训练语言模型是否可以理解语言」的相关争论,文中描述了「正方」和「反方」的论点,以及根据这些论点衍生的更广泛的智力科学的关键问题。论文链接:https://arxiv.o

GPT4ALL:终极开源大语言模型解决方案GPT4ALL:终极开源大语言模型解决方案May 17, 2023 am 11:02 AM

开源语言模型生态系统正在兴起,这些生态系统为个人提供综合资源以创建用于研究和商业目的的语言应用程序。本文深入研究GPT4ALL,它通过提供全面的搭建模块,使任何人都能开发类似ChatGPT的聊天机器人,从而超越了特定的使用案例。什么是GPT4ALL项目?GPT4ALL可以在使用最先进的开源大型语言模型时提供所需一切的支持。它可以访问开源模型和数据集,使用提供的代码训练和运行它们,使用Web界面或桌面应用程序与它们交互,连接到Langchain后端进行分布式计算,并使用PythonAPI进行轻松集

学Python,还不知道main函数吗学Python,还不知道main函数吗Apr 12, 2023 pm 02:58 PM

Python 中的 main 函数充当程序的执行点,在 Python 编程中定义 main 函数是启动程序执行的必要条件,不过它仅在程序直接运行时才执行,而在作为模块导入时不会执行。要了解有关 Python main 函数的更多信息,我们将从如下几点逐步学习:什么是 Python 函数Python 中 main 函数的功能是什么一个基本的 Python main() 是怎样的Python 执行模式Let’s get started什么是 Python 函数相信很多小伙伴对函数都不陌生了,函数是可

Azure AI的文本转语音功能已经支持41种多语言语音Azure AI的文本转语音功能已经支持41种多语言语音Aug 10, 2023 pm 07:05 PM

Microsoft的AzureAI文本转语音服务允许你将文本转换为不同语言的语音。今年年初,AzureAI文本转语音引入了JennyMultilingual语音,允许客户跨区域设置以一致的角色生成语音。到目前为止,Jenny多语言语音支持14种语言。今天,Microsoft宣布将多语言语音功能扩展到41种语言和口音。今天,Microsoft还宣布了一个新的男声(RyanMultilingual),作为其多语言产品组合的一部分。这些新语音具有输入文本的自动语言预测功能。因此,这消除了手动标记的需要

计算机硬件能直接识别并执行的语言是什么计算机硬件能直接识别并执行的语言是什么Dec 25, 2020 pm 03:16 PM

计算机硬件能直接识别并执行的语言是机器语言。机器语言是机器能直接识别的程序语言或指令代码,无需经过翻译,每一操作码在计算机内部都有相应的电路来完成它。

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

뜨거운 도구

VSCode Windows 64비트 다운로드

VSCode Windows 64비트 다운로드

Microsoft에서 출시한 강력한 무료 IDE 편집기

WebStorm Mac 버전

WebStorm Mac 버전

유용한 JavaScript 개발 도구

DVWA

DVWA

DVWA(Damn Vulnerable Web App)는 매우 취약한 PHP/MySQL 웹 애플리케이션입니다. 주요 목표는 보안 전문가가 법적 환경에서 자신의 기술과 도구를 테스트하고, 웹 개발자가 웹 응용 프로그램 보안 프로세스를 더 잘 이해할 수 있도록 돕고, 교사/학생이 교실 환경 웹 응용 프로그램에서 가르치고 배울 수 있도록 돕는 것입니다. 보안. DVWA의 목표는 다양한 난이도의 간단하고 간단한 인터페이스를 통해 가장 일반적인 웹 취약점 중 일부를 연습하는 것입니다. 이 소프트웨어는

SecList

SecList

SecLists는 최고의 보안 테스터의 동반자입니다. 보안 평가 시 자주 사용되는 다양한 유형의 목록을 한 곳에 모아 놓은 것입니다. SecLists는 보안 테스터에게 필요할 수 있는 모든 목록을 편리하게 제공하여 보안 테스트를 더욱 효율적이고 생산적으로 만드는 데 도움이 됩니다. 목록 유형에는 사용자 이름, 비밀번호, URL, 퍼징 페이로드, 민감한 데이터 패턴, 웹 셸 등이 포함됩니다. 테스터는 이 저장소를 새로운 테스트 시스템으로 간단히 가져올 수 있으며 필요한 모든 유형의 목록에 액세스할 수 있습니다.

Atom Editor Mac 버전 다운로드

Atom Editor Mac 버전 다운로드

가장 인기 있는 오픈 소스 편집기