찾다
기술 주변기기일체 포함UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

비주얼(픽셀) 모델만으로 어디까지 갈 수 있나요? UC Berkeley와 Johns Hopkins University의 새로운 논문에서는 이 문제를 탐구하고 다양한 CV 작업에서 LVM(대형 비전 모델)의 잠재력을 보여줍니다.

최근에는 GPT, LLaMA 등 대형 언어 모델(LLM)이 전 세계적으로 인기를 끌고 있습니다.

LVM(Large Vision Models)을 구축하는 것은 큰 관심사입니다. 이를 달성하려면 무엇이 필요합니까?

LLaVA와 같은 시각 언어 모델이 제공하는 아이디어는 흥미롭고 탐구할 가치가 있지만 동물계의 법칙에 따르면 시각 능력과 언어 능력은 관련이 없다는 것을 이미 알고 있습니다. 예를 들어, 많은 실험에서는 인간이 아닌 영장류의 언어 체계가 인간과 "동일"함에도 불구하고 시각적 세계가 인간의 시각적 세계와 매우 유사하다는 사실이 밝혀졌습니다.

최근 논문에서는 픽셀만으로 얼마나 멀리 갈 수 있는가에 대한 또 다른 질문에 대한 답을 논의합니다. 논문은 캘리포니아대학교, 버클리대학교, 존스홉킨스대학교

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

  • 논문 링크: https://arxiv.org/abs/2312.00785

  • 프로젝트 홈페이지: https:// yutongbai .com/lvm.html

연구원들이 LVM에서 모방하려는 LLM의 주요 특성: 1) 데이터의 규모 증가에 따라 비즈니스를 확장하려면 새로운 시장 기회를 찾아야 합니다. 우리는 증가하는 수요를 충족시키기 위해 제품 라인을 더욱 확장할 계획입니다. 동시에 마케팅 전략을 강화하고 브랜드 인지도를 높이겠습니다. 산업전시회 및 판촉활동에 적극 참여하여 보다 많은 고객군 발굴에 노력하겠습니다. 우리는 이러한 노력을 통해 더 큰 성공과 지속적인 성장을 이룰 수 있다고 믿습니다. 2) 프롬프트를 통해 유연하게 작업을 지정합니다(상황별 학습).

그들은 세 가지 주요 구성 요소, 즉 데이터, 아키텍처 및 손실 기능을 지정했습니다.

데이터 측면에서 연구자들은 시각적 데이터의 상당한 다양성을 활용하고 싶어합니다. 주석이 없는 원시 이미지와 비디오로 시작하여 지난 수십 년 동안 생성된 주석이 달린 다양한 시각적 데이터 소스(의미론적 분할, 깊이 재구성, 키포인트, 다중 뷰 3D 개체 등 포함)를 활용합니다. 그들은 픽셀 이상의 메타 지식이 필요하지 않고 이러한 다양한 주석을 표현하기 위해 공통 형식("시각적 문장")을 정의했습니다. 훈련 세트의 총 크기는 16억 4천만 개의 이미지/프레임입니다.

아키텍처 측면에서 연구원들은 대규모 변환기 아키텍처(30억 매개변수)를 사용하여 토큰 시퀀스로 표현된 시각적 데이터를 훈련하고 학습된 토크나이저를 사용하여 각 이미지를 256개의 벡터 양자화토큰 문자열에 매핑했습니다.

손실 함수 측면에서 연구자들은 자연어 커뮤니티에서 영감을 얻었습니다. 즉, 마스크 토큰 모델링은 시퀀스 자동 회귀 예측 방법에 "제공"되었습니다. 이미지, 비디오 및 주석이 달린 이미지를 모두 시퀀스로 표현할 수 있으면 훈련된 모델은 다음 토큰을 예측할 때 교차 엔트로피 손실을 최소화할 수 있습니다.

이 극도로 단순한 디자인을 통해 연구원은 다음과 같은 주목할만한 행동을 보여주었습니다.

  • 모델 크기와 데이터 크기가 증가함에 따라 모델이 자동으로 적절함을 보여줍니다. 비즈니스 확장을 위해서는 새로운 시장 기회를 찾아야 합니다. 우리는 증가하는 수요를 충족시키기 위해 제품 라인을 더욱 확장할 계획입니다. 동시에 마케팅 전략을 강화하고 브랜드 인지도를 높이겠습니다. 산업전시회 및 판촉활동에 적극 참여하여 보다 많은 고객군 발굴에 노력하겠습니다. 우리는 이러한 노력을 통해 더 큰 성공을 거두고 지속적인 성장을 달성할 수 있다고 믿습니다.

  • 이제 테스트 중에 적절한 프롬프트를 디자인하면 다양한 시각적 작업을 해결할 수 있습니다. 특별히 훈련된 맞춤형 모델만큼 고성능 결과는 아니지만 단일 비전 모델이 이렇게 많은 작업을 해결할 수 있다는 사실은 매우 고무적입니다.

  • 다양한 비전 작업에 대한 대량의 비지도 데이터 성능에 큰 도움이 됩니다.

  • 배포되지 않은 데이터를 처리하고 새로운 작업을 수행할 때 일반적인 시각적 추론 능력의 징후가 있었지만 여전히 추가 연구가 필요합니다.

논문의 공동 저자인 John Hope Yutong Bai, Kings College의 4년차 CS 박사 과정 학생과 Berkeley의 방문 박사 과정 학생이 자신의 작업을 홍보하기 위해 트윗을 올렸습니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

원본 이미지 출처는 트위터 계정입니다: https://twitter.com/YutongBAI1002/status/1731512110247473608

논문 작성자 중 마지막 3명은 해당 분야의 선임 학자입니다. UC 버클리 이력서. Trevor Darrell 교수는 버클리 인공지능 연구실인 BAIR의 창립 공동 소장이고, Jitendra Malik 교수는 2019 IEEE Computer Pioneer Award를 수상했으며, Alexei A. Efros 교수는 최근접 이웃 연구로 특히 유명합니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

왼쪽부터 Trevor Darrell, Jitendra Malik, Alexei A. Efros입니다.

방법 소개

이 기사에서는 2단계 접근 방식을 사용합니다. 1) 각 이미지를 일련의 시각적 토큰으로 변환할 수 있는 대규모 시각적 토크나이저(단일 이미지에서 작동)를 교육합니다. 시각적 문장 자동회귀 변환기 모델, 각 문장은 일련의 토큰으로 표시됩니다. 방법은 그림 2에 나와 있습니다

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

이미지 토큰화

Transformer 모델을 이미지에 적용하기 위한 일반적인 작업은 다음과 같습니다. 이미지를 패치로 나누고 이를 시퀀스로 처리하거나 사전 훈련된 이미지를 사용합니다. VQVAE 또는 VQGAN과 같은 토크나이저는 이미지 기능을 개별 토큰 그리드로 집계합니다. 이 기사에서는 VQGAN 모델을 사용하여 의미론적 토큰을 생성하는 후자의 방법을 채택합니다.

LVM 프레임워크에는 인코딩 및 디코딩 메커니즘이 포함되어 있으며 인코더와 디코더가 컨벌루션 레이어로 구축되는 양자화 레이어도 있습니다. 인코더에는 입력의 공간 크기를 줄이기 위한 여러 다운샘플링 모듈이 장착되어 있고, 디코더에는 이미지를 원래 크기로 복원하기 위한 일련의 동등한 업샘플링 모듈이 장착되어 있습니다. 특정 이미지에 대해 VQGAN 토크나이저는 256개의 개별 토큰을 생성합니다.

이 문서의 VQGAN 아키텍처는 Chang et al.이 제안한 구현 세부 사항을 채택하고 해당 설정을 따릅니다. 구체적으로 다운샘플링 인자는 f=16이고 코드북 크기는 8192이다. 이는 256×256 크기의 이미지에 대해 VQGAN 토크나이저가 16×16=256개의 토큰을 생성하고 각 토큰이 8192개의 서로 다른 값을 가질 수 있음을 의미합니다. 또한 이 기사에서는 LAION 5B 데이터 세트의 1.5B 하위 집합에 대해 토크나이저를 교육했습니다

시각적 문장 시퀀스 모델링

VQGAN을 사용하여 이미지를 개별 토큰으로 변환한 후 이 기사에서는 여러 이미지의 개별 토큰을 사용하여 하나로 연결합니다. -차원적 서열을 다루고 시각적 문장을 통일된 서열로 취급합니다. 중요한 것은 어떤 시각적 문장도 특별히 처리되지 않았다는 것입니다. 즉, 특정 작업이나 형식을 나타내는 데 특별한 토큰이 사용되지 않았습니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

시각적 문장의 기능은 다양한 시각적 데이터를 통일된 이미지 시퀀스 구조로 형식화하는 것입니다

구현 세부정보. 본 논문에서는 시각적 문장의 각 이미지를 256개의 토큰으로 토큰화한 후 이를 연결하여 1D 토큰 시퀀스를 형성합니다. 시각적 토큰 시퀀스에서 이 기사의 Transformer 모델은 실제로 자동 회귀 언어 모델과 동일하므로 LLaMA의 Transformer 아키텍처를 채택합니다.

이 콘텐츠는 언어 모델과 유사한 4096 토큰의 컨텍스트 길이를 사용합니다. 각 시각적 문장의 시작 부분에 [BOS](문장 시작) 토큰을 추가하고 끝에 [EOS](문장 끝) 토큰을 추가하고 훈련 중에 시퀀스 스플라이싱을 사용하여 효율성을 향상시킵니다.

이 기사는 전체 UVDv1 데이터세트(4200, 1억 토큰), 서로 다른 매개변수 번호를 가진 총 4개 모델(3억, 6억, 10억, 30억)이 훈련되었습니다.

실험 결과를 다시 작성해야 합니다

모델을 평가하기 위해 실험을 수행했습니다. 비즈니스를 확장하려면 새로운 시장 기회를 찾아야 합니다. 우리는 증가하는 수요를 충족시키기 위해 제품 라인을 더욱 확장할 계획입니다. 동시에 마케팅 전략을 강화하고 브랜드 인지도를 높이겠습니다. 산업전시회 및 판촉활동에 적극 참여하여 보다 많은 고객군 발굴에 노력하겠습니다. 우리는 이러한 노력을 통해 더 큰 성공을 이룰 수 있으며, 다양한 업무를 이해하고 대답하는 능력과 능력이 지속적으로 성장할 수 있다고 믿습니다.

비즈니스를 확장하려면 새로운 시장 기회를 찾아야 합니다. 우리는 증가하는 수요를 충족시키기 위해 제품 라인을 더욱 확장할 계획입니다. 동시에 마케팅 전략을 강화하고 브랜드 인지도를 높이겠습니다. 산업전시회 및 판촉활동에 적극 참여하여 보다 많은 고객군 발굴에 노력하겠습니다. 우리는 이러한 노력을 통해 더 큰 성과를 이루고 지속적인 성장을 이룰 수 있다고 믿습니다

그림 3에서 볼 수 있듯이, 본 연구에서는 먼저 다양한 크기의 LVM의 학습 손실을 조사했습니다

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

아래 그림 4에서 볼 수 있듯이 더 큰 모델은 모든 작업에서 복잡성이 낮아 모델의 전체 성능이 다양한 다운스트림 작업으로 이전될 수 있음을 나타냅니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

그림 5에 표시된 것처럼 각 데이터 구성 요소는 다운스트림 작업에 중요한 영향을 미칩니다. LVM은 더 큰 데이터의 이점을 누릴 뿐만 아니라 데이터 세트의 다양성으로 인해 향상됩니다

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

원래 의미를 변경하지 않고 내용을 다시 작성하려면 언어를 중국어로 다시 작성해야 합니다. 원래 문장이 나타나야 합니다

LVM의 다양한 프롬프트 이해 능력을 테스트하기 위해 본 연구에서는 먼저 LVM에서 시퀀스 추론 작업에 대한 평가 실험을 수행했습니다. 그중 프롬프트는 매우 간단합니다. 모델에 7개의 이미지 시퀀스를 제공하고 다음 이미지를 예측하도록 요청합니다. 실험 결과는 아래 그림 6과 같이 다시 작성되어야 합니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

연구에서는 또한 카테고리의 항목 목록 이를 시퀀스로 처리하고 LVM이 동일한 카테고리의 이미지를 예측하도록 합니다. 실험 결과는 아래 그림 15와 같이 다시 작성되어야 합니다. 후속 프레임을 예측하시겠습니까?

이 연구에서는 다양한 길이(1~15프레임)의 상황별 프롬프트를 제공하여 모델의 프레임 생성 복잡성을 평가합니다. 결과는 프레임 수가 증가함에 따라 Perplexity가 점차 개선되는 것을 보여줍니다. 구체적인 데이터는 아래 그림 7에 나와 있습니다. Perplexity는 프레임 1에서 프레임 11까지 크게 개선된 후 안정화되었습니다(62.1 → 48.4)UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

Analogy Prompt

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

이 연구에서는 LVM 설명의 고급 수준도 테스트했습니다.

아래 그림 8은 여러 작업에 대한 유추 프롬프트의 질적 결과를 보여줍니다.

시각적 프롬프트와의 비교를 바탕으로 시퀀스 LVM을 볼 수 있습니다. 거의 모든 작업에서 이전 방법보다 더 나은 성능을 발휘합니다

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

합성 작업. 그림 9는 단일 프롬프트를 사용하여 여러 작업을 결합한 결과를 보여줍니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

기타 프롬프트

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

연구원들은 이전에 비즈니스에서 볼 수 없었던 다양한 프롬프트를 제공하여 모델의 크기 조정을 관찰하려고 했습니다. 우리는 새로운 시장 기회를 찾아야 합니다. 우리는 증가하는 수요를 충족시키기 위해 제품 라인을 더욱 확장할 계획입니다. 동시에 마케팅 전략을 강화하고 브랜드 인지도를 높이겠습니다. 산업전시회 및 판촉활동에 적극 참여하여 보다 많은 고객군 발굴에 노력하겠습니다. 우리는 이러한 노력을 통해 더 큰 성공과 지속적인 성장을 이룰 수 있다고 믿습니다. 아래 그림 10에서는 이러한 프롬프트 중 일부가 잘 작동하는 것을 보여줍니다.

아래 그림 11은 말로 설명하기 어려운 몇 가지 프롬프트를 보여 주며 결국 이러한 작업에서 LVM보다 뛰어난 성능을 발휘할 수 있습니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

그림 13은 비언어적 인간 IQ 테스트에서 일반적인 시각적 추론 문제에 대한 예비 정성적 결과를 보여줍니다.

UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.

자세한 내용은 원본 기사를 읽어보세요.

위 내용은 UC Berkeley는 대규모의 일반 시각적 추론 모델을 성공적으로 개발했으며, 세 명의 선임 학자가 힘을 합쳐 연구에 참여했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
이 기사는 机器之心에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제
Huggingface Smollm으로 개인 AI 조수를 만드는 방법Huggingface Smollm으로 개인 AI 조수를 만드는 방법Apr 18, 2025 am 11:52 AM

ON-DEVICE AI의 힘을 활용 : 개인 챗봇 CLI 구축 최근에 개인 AI 조수의 개념은 공상 과학처럼 보였다. 기술 애호가 인 Alex, 똑똑하고 현지 AI 동반자를 꿈꾸는 것을 상상해보십시오.

정신 건강을위한 AI는 스탠포드 대학교의 흥미로운 새로운 이니셔티브를 통해주의 깊게 분석됩니다.정신 건강을위한 AI는 스탠포드 대학교의 흥미로운 새로운 이니셔티브를 통해주의 깊게 분석됩니다.Apr 18, 2025 am 11:49 AM

AI4MH의 첫 출시는 2025 년 4 월 15 일에 열렸으며, 유명한 정신과 의사이자 신경 과학자 인 Luminary Dr. Tom Insel 박사는 킥오프 스피커 역할을했습니다. Insel 박사는 정신 건강 연구 및 테크노에서 뛰어난 작업으로 유명합니다.

2025 WNBA 드래프트 클래스는 리그가 성장하고 온라인 괴롭힘과 싸우고 있습니다.2025 WNBA 드래프트 클래스는 리그가 성장하고 온라인 괴롭힘과 싸우고 있습니다.Apr 18, 2025 am 11:44 AM

Engelbert는 "WNBA가 모든 사람, 플레이어, 팬 및 기업 파트너가 안전하고 가치가 있으며 권한을 부여받는 공간으로 남아 있기를 원합니다. 아노

파이썬 내장 데이터 구조에 대한 포괄적 인 가이드 - 분석 Vidhya파이썬 내장 데이터 구조에 대한 포괄적 인 가이드 - 분석 VidhyaApr 18, 2025 am 11:43 AM

소개 Python은 특히 데이터 과학 및 생성 AI에서 프로그래밍 언어로 탁월합니다. 대규모 데이터 세트를 처리 할 때 효율적인 데이터 조작 (저장, 관리 및 액세스)이 중요합니다. 우리는 이전에 숫자와 st를 다루었습니다

대안과 비교하여 OpenAi의 새로운 모델의 첫인상대안과 비교하여 OpenAi의 새로운 모델의 첫인상Apr 18, 2025 am 11:41 AM

다이빙하기 전에 중요한 경고 : AI 성능은 비 결정적이며 고도로 사용하는 것이 중요합니다. 간단히 말하면 마일리지는 다를 수 있습니다. 이 기사 (또는 다른) 기사를 최종 단어로 취하지 마십시오. 대신 에이 모델을 자신의 시나리오에서 테스트하십시오.

AI 포트폴리오 | AI 경력을위한 포트폴리오를 구축하는 방법은 무엇입니까?AI 포트폴리오 | AI 경력을위한 포트폴리오를 구축하는 방법은 무엇입니까?Apr 18, 2025 am 11:40 AM

뛰어난 AI/ML 포트폴리오 구축 : 초보자 및 전문가를위한 안내서 인공 지능 (AI) 및 머신 러닝 (ML)의 역할을 확보하는 데 강력한 포트폴리오를 만드는 것이 중요합니다. 이 안내서는 포트폴리오 구축에 대한 조언을 제공합니다

보안 운영에 대한 에이전트 AI가 무엇을 의미 할 수 있는지보안 운영에 대한 에이전트 AI가 무엇을 의미 할 수 있는지Apr 18, 2025 am 11:36 AM

결과? 소진, 비 효율성 및 탐지와 동작 사이의 넓은 차이. 이 중 어느 것도 사이버 보안에서 일하는 사람에게는 충격이되지 않습니다. 그러나 에이전트 AI의 약속은 잠재적 인 전환점으로 부상했다. 이 새로운 수업

Google 대 Openai : AI 학생들을위한 AI 싸움Google 대 Openai : AI 학생들을위한 AI 싸움Apr 18, 2025 am 11:31 AM

장기 파트너십 대 즉각적인 영향? 2 주 전 Openai는 2025 년 5 월 말까지 미국과 캐나다 대학생들에게 Chatgpt Plus에 무료로 이용할 수있는 강력한 단기 제안으로 발전했습니다.

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

뜨거운 도구

MinGW - Windows용 미니멀리스트 GNU

MinGW - Windows용 미니멀리스트 GNU

이 프로젝트는 osdn.net/projects/mingw로 마이그레이션되는 중입니다. 계속해서 그곳에서 우리를 팔로우할 수 있습니다. MinGW: GCC(GNU Compiler Collection)의 기본 Windows 포트로, 기본 Windows 애플리케이션을 구축하기 위한 무료 배포 가능 가져오기 라이브러리 및 헤더 파일로 C99 기능을 지원하는 MSVC 런타임에 대한 확장이 포함되어 있습니다. 모든 MinGW 소프트웨어는 64비트 Windows 플랫폼에서 실행될 수 있습니다.

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

WebStorm Mac 버전

WebStorm Mac 버전

유용한 JavaScript 개발 도구

ZendStudio 13.5.1 맥

ZendStudio 13.5.1 맥

강력한 PHP 통합 개발 환경

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기