찾다
기술 주변기기일체 포함Li Feifei의 '공간 지능' 이후 Shanghai Jiao Tong University, Zhiyuan University, Peking University 등은 대규모 공간 모델 SpatialBot을 제안했습니다.

Li Feifei의 공간 지능 이후 Shanghai Jiao Tong University, Zhiyuan University, Peking University 등은 대규모 공간 모델 SpatialBot을 제안했습니다.
AIxiv 칼럼은 본 사이트에 학술적, 기술적 내용을 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com

이 기사의 첫 번째 저자는 이전에 스탠포드 대학교 대학원생인 Cai Wenxiao입니다. 1학년 점수. 그의 연구 관심 분야에는 다중 모드 대형 모델과 구체화된 지능이 포함됩니다. 이 작업은 그가 Shanghai Jiao Tong University를 방문하고 베이징 Zhiyuan 인공 지능 연구소에서 인턴십을 하는 동안 완료되었습니다. 그의 지도교수는 이 기사의 교신 저자인 Zhao Bo 교수였습니다.

이전에 Li Feifei 선생님이 공간 지능 개념을 제안했습니다. 이에 대응하여 Shanghai Jiao Tong University, Stanford University, Zhiyuan University, Peking University, Oxford University 및 Dongda University의 연구원들은 대규모 공간 모델 SpatialBot을 제안했습니다. 또한 다중 모달 대형 모델이 일반 시나리오와 구현된 시나리오에서 깊이와 공간을 이해할 수 있도록 훈련 데이터 SpatialQA와 테스트 목록 SpatialBench를 제안했습니다.

Li Feifei의 공간 지능 이후 Shanghai Jiao Tong University, Zhiyuan University, Peking University 등은 대규모 공간 모델 SpatialBot을 제안했습니다.

  • 논문 제목: SpatialBot: Vision Language Models를 통한 정확한 깊이 이해
  • 논문 링크: https://arxiv.org/abs/2406.13642
  • 프로젝트 홈페이지: https://github. com/BAAI-DCAI/SpatialBot

구체지능의 픽 앤 플레이스 작업에서는 기계 발톱이 대상 물체에 닿았는지 판단하는 것이 필요합니다. 마주치면 발톱을 닫고 잡을 수 있습니다. 그러나 이 Berkerly UR5 데모 데이터 세트 장면에서는 GPT-4o나 인간조차도 단일 RGB 이미지에서 기계적 발톱이 대상 물체에 닿았는지 여부를 판단할 수 없습니다. 예를 들어 깊이 정보를 사용하면 깊이 맵을 직접 확인할 수 있습니다. GPT-4o에 표시되면 깊이 맵을 이해할 수 없기 때문에 판단할 수 없습니다.

SpatialBot은 RGB-Depth에 대한 이해를 통해 기계 집게발과 대상 물체의 깊이 값을 정확하게 획득하여 공간 개념에 대한 이해를 생성할 수 있습니다.

Li Feifei의 공간 지능 이후 Shanghai Jiao Tong University, Zhiyuan University, Peking University 등은 대규모 공간 모델 SpatialBot을 제안했습니다.

구현된 장면의 SpatialBot 데모:

1 인간(카메라) 관점에서 오른쪽의 찻잔을 잡습니다. Li Feifei의 공간 지능 이후 Shanghai Jiao Tong University, Zhiyuan University, Peking University 등은 대규모 공간 모델 SpatialBot을 제안했습니다.2. 가운데 찻잔을 잡습니다. Li Feifei의 공간 지능 이후 Shanghai Jiao Tong University, Zhiyuan University, Peking University 등은 대규모 공간 모델 SpatialBot을 제안했습니다. 구체화된 지능을 향한 필수 경로로서 대형 모델이 공간을 이해하도록 만드는 방법은 무엇입니까?
포인트 클라우드는 상대적으로 비싸며 쌍안경 카메라는 사용 중에 자주 보정이 필요합니다. 대조적으로, 깊이 카메라는 저렴하고 널리 사용됩니다. 일반적인 시나리오에서는 이러한 하드웨어 장비가 없어도 대규모 비지도 학습 깊이 추정 모델이 이미 상대적으로 정확한 깊이 정보를 제공할 수 있습니다. 따라서 저자는 공간적으로 큰 모델에 대한 입력으로 RGBD를 사용할 것을 제안합니다.

현재 기술 경로의 문제점은 무엇입니까?

기존 모델은 깊이 맵 입력을 직접 이해할 수 없습니다. 예를 들어, 이미지 인코더 CLIP/SigLIP은 깊이 맵을 보지 않고 RGB 이미지에 대해 학습됩니다.
  1. 기존의 대규모 모델 데이터 세트 대부분은 RGB만으로 분석 및 답변이 가능합니다. 따라서 기존 데이터를 단순히 RGBD 입력으로 변경하면 모델은 지식을 깊이 맵에 적극적으로 색인화하지 않습니다. 모델이 깊이 맵을 이해하고 깊이 정보를 사용할 수 있도록 안내하려면 특별히 설계된 작업과 QA가 필요합니다.
  2. S SpatialQA의 3단계, 깊이 맵, 깊이 정보의 활용을 이해하도록 모델을 점진적으로 안내합니다
    모델이 깊이 정보를 이해하고 사용하며 공간을 이해하도록 안내하는 방법은 무엇입니까?
    저자는 세 가지 수준의 SpatialQA 데이터 세트를 제안합니다.

    낮은 수준에서는 모델이 깊이 맵을 이해하도록 안내하고 깊이 맵에서 직접 정보를 안내합니다.
    1. 중간 수준에서는 모델이 깊이를 RGB와 정렬하도록 합니다.
    2. 상위 수준에서 다중 깊이 설계 관련 작업의 경우 50k 데이터에 주석이 추가되어 모델이 깊이 정보를 사용하여 깊이 맵 이해를 기반으로 작업을 완료할 수 있습니다. 작업에는 공간 위치 관계, 물체 크기, 물체 접촉 여부, 로봇 장면 이해 등이 포함됩니다.
    3. What does Spatialbot에 포함된 대화 예시?

    Li Feifei의 공간 지능 이후 Shanghai Jiao Tong University, Zhiyuan University, Peking University 등은 대규모 공간 모델 SpatialBot을 제안했습니다.

    1. SpatialBot은 에이전트의 아이디어를 바탕으로 필요할 때 API를 통해 정확한 깊이 정보를 얻을 수 있습니다. 깊이 정보 획득, 거리 비교 등의 작업에서 99% 이상의 정확도를 달성할 수 있습니다. 2. 공간 이해 작업을 위해 저자는 SpatialBench 목록을 발표했습니다. 신중하게 설계되고 주석이 달린 QA를 통해 모델의 깊은 이해 능력을 테스트합니다. SpatialBot은 목록에서 GPT-4o에 가까운 기능을 보여줍니다.

    모델은 깊이 맵을 어떻게 이해하나요?

    1. 모델의 깊이 맵 입력: 실내 및 실외 작업을 고려하려면 통일된 깊이 맵 인코딩 방법이 필요합니다. 실내 잡기 및 탐색 작업에는 밀리미터 수준의 정확도가 필요할 수 있습니다. 실외 장면에서는 그다지 정확할 필요는 없지만 100미터 이상의 깊이 값 범위가 필요할 수 있습니다. 서수 인코딩은 기존 비전 작업의 인코딩에 사용되지만 서수의 값을 더하거나 뺄 수 없습니다. 모든 깊이 정보를 최대한 보존하기 위해 SpatialBot은 uint24 또는 3채널 uint8을 사용하여 1mm에서 131m 범위의 미터법 깊이(밀리미터)를 직접 사용하여 이러한 값을 보존합니다.
    2. SpatialBot은 깊이 정보를 정확하게 얻기 위해 필요하다고 판단될 때 DepthAPI를 포인트 형태로 호출하여 정확한 깊이 값을 얻습니다. 객체의 깊이를 얻으려면 SpatialBot은 먼저 객체의 경계 상자를 생각한 다음 경계 상자의 중심점을 사용하여 API를 호출합니다.
    3. SpatialBot은 물체의 중심점, 깊이 평균, 최대 및 최소 4가지 값을 사용하여 깊이를 설명합니다.

                                                                 SpatialBot 및 DepthAPI 아키텍처

    SpatialBot은 일반 시나리오와 특정 시나리오에서 얼마나 효과적인가요?

    Li Feifei의 공간 지능 이후 Shanghai Jiao Tong University, Zhiyuan University, Peking University 등은 대규모 공간 모델 SpatialBot을 제안했습니다.

    1. SpatialBot은 3B에서 8B까지의 다중 기본 LLM을 기반으로 합니다. SpatialQA에서 공간 지식을 학습함으로써 SpatialBot은 일반적으로 사용되는 MLLM 데이터 세트(MME, MMBench 등)에서도 상당한 성능 향상을 보여줍니다. 2. SpatialBot은 Open X-Embodiment와 저자가 수집한 로봇 크롤링 데이터 등 특정 작업에서도 놀라운 결과를 보여주었습니다.

    B Spatialbot 일반 시나리오의 데이터 표시 방법

    데이터 표시 방법은 무엇입니까?
    깊이, 거리 관계, 상하, 좌우 전후 위치 관계, 크기 관계 등 공간적 이해에 관한 질문을 세심하게 설계했으며, 두 물체가 안에 있는지 등 구현에 있어서 중요한 문제를 포함합니다. 연락하다.
    테스트 세트 SpatialBench에서는 질문, 옵션 및 답변이 먼저 수동으로 고려됩니다. 테스트 세트 크기를 확장하기 위해 동일한 프로세스로 주석을 달기 위해 GPT도 사용됩니다.
    훈련 세트 SpatialQA에는 세 가지 측면이 포함됩니다.

    깊이 맵을 직접 이해하고, 모델이 깊이 맵을 보고, 깊이 분포를 분석하고, 포함될 수 있는 객체를 추측하도록 합니다.
    1. 공간 관계 이해 및 추론
    2. 로봇 장면 이해: Open X-Embodiment의 장면, 포함된 개체 및 가능한 작업과 이 기사에서 수집된 로봇 데이터를 설명하고 개체 및 경계 상자에 수동으로 레이블을 지정합니다. 로봇의.

    Li Feifei의 공간 지능 이후 Shanghai Jiao Tong University, Zhiyuan University, Peking University 등은 대규모 공간 모델 SpatialBot을 제안했습니다.

                                                                          열기 GPT를 사용하여 데이터의 이 부분에 주석을 달 때 GPT는 먼저 깊이 맵을 보고, 깊이 맵을 설명하고, 포함될 수 있는 장면과 개체에 대한 이유를 설명한 다음 RGB 맵을 확인하여 올바른 설명과 추론을 필터링합니다.

위 내용은 Li Feifei의 '공간 지능' 이후 Shanghai Jiao Tong University, Zhiyuan University, Peking University 등은 대규모 공간 모델 SpatialBot을 제안했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
AI Index 2025 읽기 : AI는 친구, 적 또는 부조종사입니까?AI Index 2025 읽기 : AI는 친구, 적 또는 부조종사입니까?Apr 11, 2025 pm 12:13 PM

Stanford University Institute for Human-Oriented Intificial Intelligence가 발표 한 2025 인공 지능 지수 보고서는 진행중인 인공 지능 혁명에 대한 훌륭한 개요를 제공합니다. 인식 (무슨 일이 일어나고 있는지 이해), 감사 (혜택보기), 수용 (얼굴 도전) 및 책임 (우리의 책임 찾기)의 네 가지 간단한 개념으로 해석합시다. 인지 : 인공 지능은 어디에나 있고 빠르게 발전하고 있습니다 인공 지능이 얼마나 빠르게 발전하고 확산되고 있는지 잘 알고 있어야합니다. 인공 지능 시스템은 끊임없이 개선되어 수학 및 복잡한 사고 테스트에서 우수한 결과를 얻고 있으며 1 년 전만해도 이러한 테스트에서 비참하게 실패했습니다. AI 복잡한 코딩 문제 또는 대학원 수준의 과학적 문제를 해결한다고 상상해보십시오-2023 년 이후

Meta Llama 3.2- 분석 Vidhya를 시작합니다Meta Llama 3.2- 분석 Vidhya를 시작합니다Apr 11, 2025 pm 12:04 PM

메타의 라마 3.2 : 멀티 모달 및 모바일 AI의 도약 Meta는 최근 AI에서 강력한 비전 기능과 모바일 장치에 최적화 된 가벼운 텍스트 모델을 특징으로하는 AI의 상당한 발전 인 Llama 3.2를 공개했습니다. 성공을 바탕으로 o

AV 바이트 : Meta ' S Llama 3.2, Google의 Gemini 1.5 등AV 바이트 : Meta ' S Llama 3.2, Google의 Gemini 1.5 등Apr 11, 2025 pm 12:01 PM

이번 주 AI 환경 : 발전의 회오리 바람, 윤리적 고려 사항 및 규제 토론. OpenAi, Google, Meta 및 Microsoft와 같은 주요 플레이어

기계와 대화하는 사람의 비용 : 챗봇이 실제로 신경 쓰일 수 있습니까?기계와 대화하는 사람의 비용 : 챗봇이 실제로 신경 쓰일 수 있습니까?Apr 11, 2025 pm 12:00 PM

연결의 편안한 환상 : 우리는 AI와의 관계에서 진정으로 번성하고 있습니까? 이 질문은 MIT Media Lab의 "AI (AI)를 사용하여 인간의 발전"심포지엄의 낙관적 톤에 도전했습니다. 이벤트는 절단 -EDG를 보여주었습니다

파이썬의 Scipy 라이브러리 이해파이썬의 Scipy 라이브러리 이해Apr 11, 2025 am 11:57 AM

소개 차등 방정식, 최적화 문제 또는 푸리에 분석과 같은 복잡한 문제를 해결하는 과학자 또는 엔지니어라고 상상해보십시오. Python의 사용 편의성 및 그래픽 기능은 매력적이지만 이러한 작업에는 강력한 도구가 필요합니다.

LLAMA 3.2를 실행하는 3 가지 방법 분석 VidhyaLLAMA 3.2를 실행하는 3 가지 방법 분석 VidhyaApr 11, 2025 am 11:56 AM

메타의 라마 3.2 : 멀티 모달 AI 강국 Meta의 최신 멀티 모드 모델 인 LLAMA 3.2는 AI의 상당한 발전으로 향상된 언어 이해력, 개선 된 정확도 및 우수한 텍스트 생성 기능을 자랑합니다. 그것의 능력 t

Dagster와 데이터 품질 검사 자동화Dagster와 데이터 품질 검사 자동화Apr 11, 2025 am 11:44 AM

데이터 품질 보증 : Dagster로 점검 자동화 및 큰 기대치 데이터 품질이 높다는 것은 데이터 중심 비즈니스에 중요합니다. 데이터 볼륨 및 소스가 증가함에 따라 수동 품질 관리는 비효율적이며 오류가 발생하기 쉽습니다.

메인 프레임은 AI 시대에 역할을합니까?메인 프레임은 AI 시대에 역할을합니까?Apr 11, 2025 am 11:42 AM

메인 프레임 : AI 혁명의 이름없는 영웅 서버는 일반 목적 애플리케이션 및 여러 클라이언트를 처리하는 데 탁월하지만 메인 프레임은 대량의 미션 크리티컬 작업을 위해 구축됩니다. 이 강력한 시스템은 자주 무거움에서 발견됩니다

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

에디트플러스 중국어 크랙 버전

에디트플러스 중국어 크랙 버전

작은 크기, 구문 강조, 코드 프롬프트 기능을 지원하지 않음

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SecList

SecList

SecLists는 최고의 보안 테스터의 동반자입니다. 보안 평가 시 자주 사용되는 다양한 유형의 목록을 한 곳에 모아 놓은 것입니다. SecLists는 보안 테스터에게 필요할 수 있는 모든 목록을 편리하게 제공하여 보안 테스트를 더욱 효율적이고 생산적으로 만드는 데 도움이 됩니다. 목록 유형에는 사용자 이름, 비밀번호, URL, 퍼징 페이로드, 민감한 데이터 패턴, 웹 셸 등이 포함됩니다. 테스터는 이 저장소를 새로운 테스트 시스템으로 간단히 가져올 수 있으며 필요한 모든 유형의 목록에 액세스할 수 있습니다.

MinGW - Windows용 미니멀리스트 GNU

MinGW - Windows용 미니멀리스트 GNU

이 프로젝트는 osdn.net/projects/mingw로 마이그레이션되는 중입니다. 계속해서 그곳에서 우리를 팔로우할 수 있습니다. MinGW: GCC(GNU Compiler Collection)의 기본 Windows 포트로, 기본 Windows 애플리케이션을 구축하기 위한 무료 배포 가능 가져오기 라이브러리 및 헤더 파일로 C99 기능을 지원하는 MSVC 런타임에 대한 확장이 포함되어 있습니다. 모든 MinGW 소프트웨어는 64비트 Windows 플랫폼에서 실행될 수 있습니다.

ZendStudio 13.5.1 맥

ZendStudio 13.5.1 맥

강력한 PHP 통합 개발 환경