>  기사  >  기술 주변기기  >  텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

WBOY
WBOY원래의
2024-06-22 07:16:49653검색

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

저자 | 홍콩중문대학교 Bai Fan

편집자 | ScienceAI

최근 홍콩중문대학교와 Zhiyuan이 공동으로 M3D-Data, M3D-LaMed 및 M3D를 포함한 M3D 시리즈 작업을 제안했습니다. -벤치, 데이터 세트와 모델 및 평가를 통해 모든 측면에서 3D 의료 영상 분석 개발을 촉진합니다.

(1) M3D-Data는 M3D-Cap(120K 3D 이미지 및 텍스트 쌍), M3D-VQA(510K 질문 및 답변 쌍), M3D-Seg(150K 3D 마스크)를 포함하여 현재 가장 큰 3D 의료 이미지 데이터 세트입니다. , M3D-RefSeg(3K 추론 분할)에는 4개의 하위 데이터 세트가 있습니다.

(2) M3D-LaMed는 현재 가장 다재다능한 3D 의료 멀티모달 대형 모델로, 텍스트(질병 진단, 영상 검색, 시각적 질의응답, 보고서 생성 등), 포지셔닝(표적 탐지, 시각적 생성 등)을 해결할 수 있습니다. 포지셔닝 등) 및 세분화(의미론적 세분화, 참조 세분화, 추론 세분화 등) 세 가지 유형의 의료 분석 작업입니다.

(3) M3D-Bench는 텍스트, 위치 지정 및 분할의 세 가지 측면을 다루는 8가지 작업을 종합적이고 자동으로 평가할 수 있으며 수동으로 검증된 테스트 데이터를 제공합니다.

이르면 2024년 4월에 데이터세트, 모델, 코드를 출시할 예정입니다.

최근에는 더 작고 강력한 M3D-LaMed-Phi-3-4B 모델을 제공했으며, 모두가 경험할 수 있는 온라인 데모를 추가했습니다!

최신 진행 상황을 확인하려면 GitHub 라이브러리 업데이트를 주의 깊게 살펴보시기 바랍니다. 질문이나 제안 사항이 있으면 언제든지 저희에게 연락하여 작업에 대해 토론하고 지원해 주세요.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

  • 문서 링크:https://arxiv.org/abs/2404.00578
  • 코드:https://github.com/BAAI-DCAI/M3D
  • 모델:https:// Huggingface.co/GoodBaiBai88/M3D-LaMed-Phi-3-4B
  • 데이터 세트:https://github.com/BAAI-DCAI/M3D?tab=readme-ov-file#data
  • 온라인 데모: https://baai.rpalab.xyz/

의료영상 관련 연구자에게 무엇을 제공할 수 있나요?

  1. M3D-Data는 최대 3D 의료 다중 모드 데이터 세트입니다.
  2. M3D-Seg는 거의 모든 오픈 소스 3D 의료 분할 데이터 세트(총 25개)를 통합하며, 텍스트를 지원합니다. 가장 많은 기능을 갖춘 분할된 3D 의료 다중 모드 대형 모델은 간결하고 명확한 코드 프레임워크를 제공하며, 연구자는 M3D-Cap 3D 이미지 및 텍스트 쌍을 기반으로 각 모듈의 설정을 쉽게 수정할 수 있습니다.
  3. M3D-CLIP; 이미지와 텍스트의 대조 학습을 위한 M3D-CLIP 모델을 개발했으며, 포괄적이고 명확한 평가 계획 및 코드인 시각적 사전 학습 가중치 3DViT
  4. M3D-Bench를 제공합니다.
  5. 이 기사에 관련된 모든 리소스는 연구자들이 3D 의료 영상 분석 개발을 공동으로 추진하는 데 도움이 되기를 바라며 일반에게 공개됩니다.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

온라인 데모 영상.

의료 영상 분석은 임상 진단 및 치료에 매우 중요하며, 이를 지원하는 다중 모드 대형 언어 모델(MLLM)이 점점 더 늘어나고 있습니다. 그러나 이전 연구들은 주로 2차원 의료영상에 초점을 맞춰왔고, 3차원 영상이 더 풍부한 공간정보를 갖고 있음에도 불구하고 충분히 연구되고 탐구되지 않았다.

이 글은 MLLM을 활용한 3차원 의료영상 분석을 발전시키는 것을 목표로 합니다. 이를 위해 우리는 이미지-텍스트 검색, 보고서 생성, 시각적 질문 응답, 현지화 및 세분화.

또한, 3차원 의료영상 분석을 위한 다재다능한 멀티모달 대언어 모델인 M3D-LaMed를 제안합니다.

또한 8개 작업의 자동 평가를 용이하게 하는 새로운 3D 다중 모드 의료 벤치마크인 M3D-Bench를 소개합니다. 종합적인 평가를 통해 우리의 접근 방식은 기존 솔루션보다 성능이 뛰어난 강력한 3D 의료 영상 분석 모델임이 입증되었습니다. 모든 코드, 데이터 및 모델은 공개적으로 제공됩니다.

Dataset

M3D-Data에는 M3D-Cap(이미지 및 텍스트 쌍), M3D-VQA(시각적 질문 및 답변 쌍), M3D-RefSeg(추론 분할) 및 M3D라는 총 4개의 하위 데이터 세트가 포함되어 있습니다. -Seg(25개의 3D 분할 데이터 세트 통합).

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

데이터 세트 통계.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

M3D-VQA 데이터 세트 배포. 문제 유형에는 주로 5가지 일반적인 3D 이미지 문제(평면, 위상, 장기, 이상 및 위치)가 포함됩니다.

우리는 거의 모든 오픈 소스 3D 의료 분할 데이터 세트를 통합하여 총 25개의 M3D-Seg를 구성했습니다. 데이터 세트는 의미론적 분할, 추론 분할, 참조 분할, 해당 탐지 및 현지화 작업에 사용될 수 있습니다.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

M3D-Seg.

Model

M3D-LaMed 모델 구조는 아래 그림과 같습니다. (a) 3D 이미지 인코더는 교차 모달 대비 학습 손실을 통해 이미지 및 텍스트 데이터로부터 사전 훈련되며 이미지 및 텍스트 검색 작업에 직접 적용할 수 있습니다. (b) M3D-LaMed 모델에서는 사전 훈련된 3D 영상 인코더와 효율적인 3D 공간 풀링 퍼셉트론에 3차원 의료 영상이 입력되고, 시각적 토큰은 LLM에 삽입되며, 출력 [SEG]는 분할 모듈을 구동하라는 메시지를 표시합니다.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

M3D-LaMed 모델 구조.

실험

그래픽 및 텍스트 검색

3D 그래프 및 텍스트 검색에서 모델은 유사성을 기반으로 데이터 세트의 이미지와 텍스트를 일치시키는 것을 목표로 하며 일반적으로 텍스트 대 이미지 검색(TR)이라는 두 가지 작업이 포함됩니다. ) 및 이미지-텍스트 검색(IR).

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

적합한 방법이 부족하여 2D 의학의 대표적인 모델인 PMC-CLIP을 3D 이미지 및 텍스트 검색에 적용한 결과 공간 정보가 부족하여 거의 불가능하다는 것을 확인했습니다. 3D 이미지 및 텍스트 검색 모델과 비교해 보세요.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

보고서 생성

보고서 생성에서는 모델이 3D 의료 영상에서 추출한 정보를 기반으로 텍스트 보고서를 생성합니다.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

폐쇄형 시각적 질의응답

폐쇄형 시각적 질의응답에서는 모델에 A, B, C, D 등 폐쇄형 답변 후보가 제공되어야 하며 모델이 선택해야 합니다. 후보자들의 정답.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

M3D-LaMed가 의료 분야에서 일반 GPT-4V보다 성능이 뛰어난 것으로 나타났습니다.

개방형 시각적 질문과 답변

개방형 시각적 질문과 답변에서 모델은 답변 힌트와 후보 없이 개방형 답변을 생성합니다.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

M3D-LaMed가 의료 분야에서 일반 GPT-4V보다 성능이 뛰어난 것으로 나타났습니다. 그러나 GPT-4V는 현재 의료 관련 질문에 대한 답변을 제한한다는 점에 유의해야 합니다.

포지셔닝

위치 지정은 시각적 언어 작업, 특히 입력 및 출력 상자와 관련된 작업에서 매우 중요합니다. REC(참조 표현 이해)와 같은 출력 상자의 작업은 참조 표현을 기반으로 이미지에서 대상 객체를 찾는 것을 목표로 합니다. 이와 대조적으로 참조 표현 생성(REG)과 같은 입력 상자 작업에서는 모델이 이미지와 위치 상자를 기반으로 특정 지역에 대한 설명을 생성해야 합니다.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

분할

분할 작업은 인식 및 현지화 기능으로 인해 3D 의료 영상 분석에서 매우 중요합니다. 다양한 텍스트 단서를 해결하기 위해 세분화는 의미론적 세분화와 참조 표현 세분화로 구분됩니다. 의미론적 분할의 경우 모델은 의미론적 레이블을 기반으로 분할 마스크를 생성합니다. 참조 표현 분할에는 자연어 표현 설명을 기반으로 하는 대상 분할이 필요하며, 이를 위해서는 모델에 특정 이해 및 추론 기능이 필요합니다.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

배포 외(OOD) 문제에 대한 사례 연구

우리는 OOD 대화에서 M3D-LaMed 모델을 테스트했는데, 이는 모든 문제가 훈련 데이터와 관련이 없음을 의미합니다. 우리는 M3D-LaMed가 강력한 일반화 기능을 갖추고 있으며 OOD 문제에 대해 횡설수설보다는 합리적인 답변을 생성할 수 있다는 것을 발견했습니다. 각 대화 세트에서 왼쪽의 아바타와 질문은 사용자가 가져온 것이며 오른쪽의 아바타와 답변은 M3D-LaMed에서 가져온 것입니다.

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

모델에는 강력한 추론 및 일반화 기능이 있습니다.

최신 훈련된 소형 M3D-LaMed-Phi-3-4B 모델은 더 나은 성능을 제공하므로 누구나 사용할 수 있습니다! GoodBaiBai88/M3D-LaMed-Phi-3-4B · Hugging Face

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

보고서 생성 테스트 결과

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

비공개 VQA 테스트 결과

텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.

TotalSegmentator 의미론적 분할 주사위에 대한 검토 결과

요약

M3D 연구 시리즈는 3D 의료 영상 분석에 MLLM 사용을 장려합니다. 특히, 우리는 3D 의료 작업에 맞춰진 120K 3D 이미지-텍스트 쌍과 662K 지시-응답 쌍을 포함하는 대규모 3D 다중 모드 의료 데이터 세트 M3D-Data를 구축합니다. 또한 이미지 텍스트 검색, 보고서 생성, 시각적 질문 답변, 위치 파악 및 분할을 처리하는 일반 모델인 M3D-LaMed를 제안합니다. 또한 8가지 작업에 대해 세심하게 설계된 종합 벤치마크인 M3D-Bench를 소개합니다.

우리의 접근 방식은 MLLM이 3D 의료 현장의 비전과 언어를 이해할 수 있는 탄탄한 기반을 마련합니다. 우리의 데이터, 코드 및 모델은 향후 연구에서 3D 의료 MLLM의 추가 탐색 및 적용을 촉진할 것입니다. 우리의 작업이 해당 분야의 연구자들에게 도움이 되기를 바라며, 누구나 자유롭게 사용하고 토론할 수 있습니다.

위 내용은 텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.