저자 | 홍콩중문대학교 Bai Fan
편집자 | ScienceAI
최근 홍콩중문대학교와 Zhiyuan이 공동으로 M3D-Data, M3D-LaMed 및 M3D를 포함한 M3D 시리즈 작업을 제안했습니다. -벤치, 데이터 세트와 모델 및 평가를 통해 모든 측면에서 3D 의료 영상 분석 개발을 촉진합니다.
(1) M3D-Data는 M3D-Cap(120K 3D 이미지 및 텍스트 쌍), M3D-VQA(510K 질문 및 답변 쌍), M3D-Seg(150K 3D 마스크)를 포함하여 현재 가장 큰 3D 의료 이미지 데이터 세트입니다. , M3D-RefSeg(3K 추론 분할)에는 4개의 하위 데이터 세트가 있습니다.
(2) M3D-LaMed는 현재 가장 다재다능한 3D 의료 멀티모달 대형 모델로, 텍스트(질병 진단, 영상 검색, 시각적 질의응답, 보고서 생성 등), 포지셔닝(표적 탐지, 시각적 생성 등)을 해결할 수 있습니다. 포지셔닝 등) 및 세분화(의미론적 세분화, 참조 세분화, 추론 세분화 등) 세 가지 유형의 의료 분석 작업입니다.
(3) M3D-Bench는 텍스트, 위치 지정 및 분할의 세 가지 측면을 다루는 8가지 작업을 종합적이고 자동으로 평가할 수 있으며 수동으로 검증된 테스트 데이터를 제공합니다.
이르면 2024년 4월에 데이터세트, 모델, 코드를 출시할 예정입니다.
최근에는 더 작고 강력한 M3D-LaMed-Phi-3-4B 모델을 제공했으며, 모두가 경험할 수 있는 온라인 데모를 추가했습니다!
최신 진행 상황을 확인하려면 GitHub 라이브러리 업데이트를 주의 깊게 살펴보시기 바랍니다. 질문이나 제안 사항이 있으면 언제든지 저희에게 연락하여 작업에 대해 토론하고 지원해 주세요.
의료영상 관련 연구자에게 무엇을 제공할 수 있나요?
의료 영상 분석은 임상 진단 및 치료에 매우 중요하며, 이를 지원하는 다중 모드 대형 언어 모델(MLLM)이 점점 더 늘어나고 있습니다. 그러나 이전 연구들은 주로 2차원 의료영상에 초점을 맞춰왔고, 3차원 영상이 더 풍부한 공간정보를 갖고 있음에도 불구하고 충분히 연구되고 탐구되지 않았다.
이 글은 MLLM을 활용한 3차원 의료영상 분석을 발전시키는 것을 목표로 합니다. 이를 위해 우리는 이미지-텍스트 검색, 보고서 생성, 시각적 질문 응답, 현지화 및 세분화.
또한, 3차원 의료영상 분석을 위한 다재다능한 멀티모달 대언어 모델인 M3D-LaMed를 제안합니다.
또한 8개 작업의 자동 평가를 용이하게 하는 새로운 3D 다중 모드 의료 벤치마크인 M3D-Bench를 소개합니다. 종합적인 평가를 통해 우리의 접근 방식은 기존 솔루션보다 성능이 뛰어난 강력한 3D 의료 영상 분석 모델임이 입증되었습니다. 모든 코드, 데이터 및 모델은 공개적으로 제공됩니다.
DatasetM3D-Data에는 M3D-Cap(이미지 및 텍스트 쌍), M3D-VQA(시각적 질문 및 답변 쌍), M3D-RefSeg(추론 분할) 및 M3D라는 총 4개의 하위 데이터 세트가 포함되어 있습니다. -Seg(25개의 3D 분할 데이터 세트 통합).
Model
M3D-LaMed 모델 구조는 아래 그림과 같습니다. (a) 3D 이미지 인코더는 교차 모달 대비 학습 손실을 통해 이미지 및 텍스트 데이터로부터 사전 훈련되며 이미지 및 텍스트 검색 작업에 직접 적용할 수 있습니다. (b) M3D-LaMed 모델에서는 사전 훈련된 3D 영상 인코더와 효율적인 3D 공간 풀링 퍼셉트론에 3차원 의료 영상이 입력되고, 시각적 토큰은 LLM에 삽입되며, 출력 [SEG]는 분할 모듈을 구동하라는 메시지를 표시합니다.
실험
그래픽 및 텍스트 검색
3D 그래프 및 텍스트 검색에서 모델은 유사성을 기반으로 데이터 세트의 이미지와 텍스트를 일치시키는 것을 목표로 하며 일반적으로 텍스트 대 이미지 검색(TR)이라는 두 가지 작업이 포함됩니다. ) 및 이미지-텍스트 검색(IR).
보고서 생성
보고서 생성에서는 모델이 3D 의료 영상에서 추출한 정보를 기반으로 텍스트 보고서를 생성합니다.
폐쇄형 시각적 질의응답
폐쇄형 시각적 질의응답에서는 모델에 A, B, C, D 등 폐쇄형 답변 후보가 제공되어야 하며 모델이 선택해야 합니다. 후보자들의 정답.
개방형 시각적 질문과 답변
개방형 시각적 질문과 답변에서 모델은 답변 힌트와 후보 없이 개방형 답변을 생성합니다.
포지셔닝
위치 지정은 시각적 언어 작업, 특히 입력 및 출력 상자와 관련된 작업에서 매우 중요합니다. REC(참조 표현 이해)와 같은 출력 상자의 작업은 참조 표현을 기반으로 이미지에서 대상 객체를 찾는 것을 목표로 합니다. 이와 대조적으로 참조 표현 생성(REG)과 같은 입력 상자 작업에서는 모델이 이미지와 위치 상자를 기반으로 특정 지역에 대한 설명을 생성해야 합니다.
분할
분할 작업은 인식 및 현지화 기능으로 인해 3D 의료 영상 분석에서 매우 중요합니다. 다양한 텍스트 단서를 해결하기 위해 세분화는 의미론적 세분화와 참조 표현 세분화로 구분됩니다. 의미론적 분할의 경우 모델은 의미론적 레이블을 기반으로 분할 마스크를 생성합니다. 참조 표현 분할에는 자연어 표현 설명을 기반으로 하는 대상 분할이 필요하며, 이를 위해서는 모델에 특정 이해 및 추론 기능이 필요합니다.
배포 외(OOD) 문제에 대한 사례 연구
우리는 OOD 대화에서 M3D-LaMed 모델을 테스트했는데, 이는 모든 문제가 훈련 데이터와 관련이 없음을 의미합니다. 우리는 M3D-LaMed가 강력한 일반화 기능을 갖추고 있으며 OOD 문제에 대해 횡설수설보다는 합리적인 답변을 생성할 수 있다는 것을 발견했습니다. 각 대화 세트에서 왼쪽의 아바타와 질문은 사용자가 가져온 것이며 오른쪽의 아바타와 답변은 M3D-LaMed에서 가져온 것입니다.
최신 훈련된 소형 M3D-LaMed-Phi-3-4B 모델은 더 나은 성능을 제공하므로 누구나 사용할 수 있습니다! GoodBaiBai88/M3D-LaMed-Phi-3-4B · Hugging Face
요약
M3D 연구 시리즈는 3D 의료 영상 분석에 MLLM 사용을 장려합니다. 특히, 우리는 3D 의료 작업에 맞춰진 120K 3D 이미지-텍스트 쌍과 662K 지시-응답 쌍을 포함하는 대규모 3D 다중 모드 의료 데이터 세트 M3D-Data를 구축합니다. 또한 이미지 텍스트 검색, 보고서 생성, 시각적 질문 답변, 위치 파악 및 분할을 처리하는 일반 모델인 M3D-LaMed를 제안합니다. 또한 8가지 작업에 대해 세심하게 설계된 종합 벤치마크인 M3D-Bench를 소개합니다.
우리의 접근 방식은 MLLM이 3D 의료 현장의 비전과 언어를 이해할 수 있는 탄탄한 기반을 마련합니다. 우리의 데이터, 코드 및 모델은 향후 연구에서 3D 의료 MLLM의 추가 탐색 및 적용을 촉진할 것입니다. 우리의 작업이 해당 분야의 연구자들에게 도움이 되기를 바라며, 누구나 자유롭게 사용하고 토론할 수 있습니다.
위 내용은 텍스트 다루기, 위치 지정 및 분할 작업을 담당하는 Zhiyuan과 홍콩 중국인이 공동으로 최초의 다기능 3D 의료 다중 모드 대형 모델을 제안했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!