Rumah  >  Artikel  >  Peranti teknologi  >  Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

PHPz
PHPzke hadapan
2023-09-05 12:01:05955semak imbas

Dengan peningkatan teleperubatan, pesakit semakin cenderung untuk memilih perundingan dan perundingan dalam talian untuk mendapatkan sokongan perubatan yang mudah dan cekap. Baru-baru ini, model bahasa besar (LLM) telah menunjukkan keupayaan interaksi bahasa semula jadi yang kuat, membawa harapan untuk kesihatan dan pembantu perubatan untuk memasuki kehidupan orang ramai


Senario perundingan perubatan dan kesihatan biasanya diperlukan kepada Pembantu yang rumit dan peribadi. mempunyai pengetahuan perubatan yang luas dan kebolehan untuk memahami niat pesakit melalui beberapa pusingan dialog dan memberikan respons profesional dan terperinci. Apabila menghadapi perundingan perubatan dan kesihatan, model bahasa universal sering mengelak daripada bercakap atau menjawab soalan secara salah kerana kekurangan pengetahuan perubatan pada masa yang sama, mereka cenderung untuk menyelesaikan perundingan pada pusingan soalan semasa dan kekurangan keupayaan penyoalan pelbagai pusingan yang memuaskan. Di samping itu, set data perubatan Cina berkualiti tinggi pada masa ini sangat jarang berlaku, yang menimbulkan cabaran untuk melatih model bahasa yang berkuasa dalam bidang perubatan.

Makmal Perisikan Data dan Pengkomputeran Sosial Universiti Fudan (FudanDISC) mengeluarkan pembantu peribadi perubatan dan kesihatan Cina - DISC-MedLLM. Dalam penilaian perundingan perubatan dan kesihatan bagi soal jawab pusingan tunggal dan dialog berbilang pusingan, prestasi model menunjukkan kelebihan yang jelas berbanding model dialog perubatan besar sedia ada. Pasukan penyelidik juga mengeluarkan set data penyeliaan halus (SFT) berkualiti tinggi - DISC-Med-SFT yang mengandungi 470,000 orang Parameter model dan laporan teknikal juga merupakan sumber terbuka.

  • Alamat halaman utama: https://med.fudan-disc.com
  • Alamat Github: https://github.com/FudanDISC/DISC-MedLLM
  • Laporan Teknikal
  • //arxiv.org/abs/2308.14346

1. Contoh paparan

Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

contoh


1.

Apabila pesakit rasa tidak sihat, mereka boleh Bertanya model untuk menerangkan simptom anda, dan model akan memberikan sebab yang mungkin, pelan rawatan yang disyorkan, dsb. sebagai rujukan Apabila maklumat kurang, ia akan meminta penerangan terperinci tentang gejala. Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi


Figure 2: Dialog dalam senario -senario usul juga boleh bertanya soalan konsultasi khusus model berdasarkan keadaan kesihatan mereka sendiri, dan model akan memberikan jawapan yang terperinci dan bermanfaat bertanya soalan secara proaktif apabila maklumat kurang untuk meningkatkan kesesuaian dan ketepatan respons.

Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

Figure 3: Dialog berdasarkan perundingan mengenai status kesihatan seseorang sendiri, juga boleh bertanya tentang pengetahuan perubatan yang tidak ada kaitan dengan diri mereka sendiri. seprofesional mungkin untuk menjadikan pengguna komprehensif dan tepat memahami.

. Model perubatan besar yang dilatih pada domain umum model besar Cina Baichuan-13B. Perlu diingat bahawa data latihan dan kaedah latihan kami boleh disesuaikan dengan mana-mana model besar asas.
DISC-MedLLM mempunyai tiga ciri utama:
Kepakaran yang boleh dipercayai dan kaya. Kami menggunakan graf pengetahuan perubatan sebagai sumber maklumat untuk membina sampel dialog dengan mensampel tiga kali ganda dan menggunakan keupayaan bahasa model besar umum.
Keupayaan soal siasat untuk berbilang pusingan dialog. Kami menggunakan rekod dialog perundingan sebenar sebagai sumber maklumat dan menggunakan model besar untuk membina semula dialog Semasa proses pembinaan, model diperlukan untuk menyelaraskan sepenuhnya maklumat perubatan dalam dialog.

Selaraskan respons kepada pilihan manusia. Pesakit berharap untuk mendapatkan maklumat sokongan dan pengetahuan latar belakang yang lebih kaya semasa proses perundingan, tetapi jawapan doktor manusia selalunya ringkas melalui pemeriksaan manual, kami membina sampel arahan berskala kecil yang berkualiti tinggi untuk diselaraskan dengan keperluan pesakit.

Kelebihan model dan rangka kerja pembinaan data ditunjukkan dalam Rajah 5. Kami mengira taburan sebenar pesakit daripada senario perundingan sebenar untuk membimbing pembinaan sampel set data Berdasarkan graf pengetahuan perubatan dan data perundingan sebenar, kami menggunakan dua idea: model-dalam-gelung besar dan orang-dalam-. gelung untuk membina set data.
  • Rajah 5: Pembinaan DISC-Med-SFT
3. Kaedah: Pembinaan set data DISC-Med-SFT

Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi dalam proses latihan model, kami menambah DISC-Med-SFT dengan set data domain umum dan sampel data daripada korpora sedia ada, membentuk DISC-Med-SFT-ext.


Jadual 1: Pengenalan kepada kandungan data DISC-Med-SFT-ext

Set data doktor-pesakit AI yang dibina semula.

. 400,000 dan 20,000 sampel telah dipilih secara rawak daripada dua set data awam, MedDialog dan cMedQA2, masing-masing, sebagai sampel sumber untuk pembinaan set data SFT.

Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

Pemfaktoran semula. Untuk melaraskan jawapan doktor dunia sebenar kepada jawapan berformat seragam berkualiti tinggi yang diperlukan, kami menggunakan GPT-3.5 untuk melengkapkan proses pembinaan semula set data ini. Gesaan memerlukan penulisan semula untuk mengikut prinsip berikut:

Alih keluar ungkapan lisan, ekstrak ungkapan bersatu dan betulkan ketidakkonsistenan dalam penggunaan bahasa doktor.

Berpegang pada maklumat penting dalam jawapan doktor asal dan berikan penjelasan yang sesuai agar lebih komprehensif dan logik.
Tulis semula atau padamkan jawapan yang tidak sepatutnya dihantar oleh doktor AI, seperti meminta pesakit membuat temu janji.

Rajah 6 menunjukkan contoh pemfaktoran semula. Jawapan doktor yang diselaraskan adalah konsisten dengan identiti pembantu perubatan AI, mematuhi maklumat penting yang diberikan oleh doktor asal sambil memberikan bantuan yang lebih kaya dan lebih komprehensif kepada pesakit.
  • Rajah 6: Contoh penulisan semula dialog dijana sampel latihan QA. Berdasarkan CMeKG, kami membuat sampel dalam graf pengetahuan mengikut maklumat jabatan nod penyakit, dan menggunakan model GPT-3.5 Prompts yang direka bentuk sesuai untuk menjana sejumlah lebih daripada 50,000 sampel dialog adegan perubatan yang pelbagai.

    Set Data Keutamaan Tingkah Laku
    Di peringkat akhir latihan, untuk meningkatkan lagi prestasi model, kami menggunakan set data yang lebih selaras dengan keutamaan tingkah laku manusia untuk penyeliaan menengah penalaan halus. Kira-kira 2000 sampel berkualiti tinggi dan pelbagai telah dipilih secara manual daripada dua set data MedDialog dan cMedQA2 Selepas menulis semula beberapa contoh dan menyemaknya secara manual kepada GPT-4, kami menggunakan kaedah sampel kecil untuk memberikannya kepada GPT-3.5, menjana tinggi. -set data keutamaan tingkah laku berkualiti.
    Lain-lain

    Data am. Untuk memperkayakan kepelbagaian set latihan dan mengurangkan risiko kemerosotan model dalam keupayaan asas semasa peringkat latihan SFT, kami memilih secara rawak beberapa sampel daripada dua set data penalaan halus yang diselia, moss-sft-003 dan data gpt4 alpaca. zh.
    MedMCQA. Untuk meningkatkan keupayaan Soal Jawab model, kami memilih MedMCQA, set data soalan aneka pilihan dalam bidang perubatan Inggeris dan menggunakan GPT-3.5 untuk mengoptimumkan soalan dan jawapan yang betul dalam soalan aneka pilihan, menjana kira-kira 8,000 orang Cina profesional. sampel Soal Jawab perubatan.
    4. Eksperimen

    latihan. Seperti yang ditunjukkan dalam rajah di bawah, proses latihan DISC-MedLLM dibahagikan kepada dua peringkat SFT.


    Rajah 7: Proses latihan dua peringkat

    Penilaian. Prestasi LLM perubatan dinilai dalam dua senario, iaitu QA pusingan tunggal dan dialog berbilang pusingan.

    Penilaian QA pusingan tunggal: Untuk menilai ketepatan model dari segi pengetahuan perubatan, kami mengambil sampel 1500 sampel daripada Peperiksaan Kelayakan Perubatan Kebangsaan China (NMLEC) dan Peperiksaan Kemasukan Lepasan Siswazah Kebangsaan (NEEP). ) Perubatan Barat 306 soalan utama + aneka pilihan untuk menilai prestasi model dalam satu pusingan QA. Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

    Penilaian dialog pelbagai pusingan: Untuk menilai secara sistematik keupayaan dialog model, kami menggunakan tiga set data awam - Penanda Aras Perubatan Cina (CMB-Clin), Set Data Dialog Perubatan Cina (CMD) dan Data Hasrat Perubatan Cina Pilih sampel secara rawak daripada set (CMID) dan biarkan GPT-3.5 memainkan peranan pesakit dan berdialog dengan model Empat penunjuk penilaian dicadangkan - inisiatif, ketepatan, kegunaan dan kualiti bahasa, yang dijaringkan oleh GPT-4.

    Semak keputusan
    1. Bandingkan model. Model kami dibandingkan dengan tiga LLM am dan dua LLM perbualan perubatan Cina. Termasuk GPT-3.5, GPT-4, Baichuan-13B-Chat OpenAI, BianQue-2 dan HuatuoGPT-13B;

    Keputusan QA pusingan tunggal. Keputusan keseluruhan penilaian aneka pilihan ditunjukkan dalam Jadual 2. GPT-3.5 menunjukkan petunjuk yang jelas. DISC-MedLLM mencapai tempat kedua dalam tetapan sampel kecil dan menduduki tempat ketiga di belakang Baichuan-13B-Chat dalam tetapan sampel sifar. Terutama, kami mengatasi prestasi HuatuoGPT (13B) yang dilatih dengan tetapan pembelajaran pengukuhan.

    Jadual 2: Keputusan penilaian aneka pilihan

    Hasil beberapa pusingan dialog. Dalam penilaian CMB-Clin, DISC-MedLLM mencapai skor keseluruhan tertinggi, diikuti rapat oleh HuatuoGPT. Model kami mendapat markah tertinggi dalam kriteria positif, menonjolkan keberkesanan pendekatan latihan kami yang berat sebelah corak tingkah laku perubatan. Keputusan ditunjukkan dalam Jadual 3.

    Jadual 3: Keputusan CMB-clin

    Dalam sampel CMD, seperti yang ditunjukkan dalam Rajah 8, GPT-4 memperoleh markah tertinggi, diikuti oleh GPT-3.5. Model dalam bidang perubatan, DISC-MedLLM dan HuatuoGPT, mempunyai skor prestasi keseluruhan yang sama, dan prestasi mereka dalam jabatan yang berbeza adalah cemerlang.

    Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

    Rajah 8: Keputusan CMD

    Situasi CMID adalah serupa dengan CMD, seperti yang ditunjukkan dalam Rajah 9, GPT-3.5 dan GPT Kecuali untuk siri GPT, DISC-MedLLM menunjukkan prestasi terbaik. Ia mengatasi HuatuoGPT dalam tiga niat: keadaan, rejimen rawatan dan ubat.

    Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

    Rajah 9: Keputusan CMID

    Prestasi setiap model yang tidak konsisten antara CMB-Clin dan CMD/CMID mungkin disebabkan oleh tiga set data yang berbeza ini. CMD dan CMID mengandungi sampel soalan yang lebih eksplisit, dan pesakit mungkin sudah mempunyai diagnosis dan menyatakan keperluan yang jelas apabila menerangkan simptom, dan soalan dan keperluan pesakit mungkin tidak ada kaitan dengan status kesihatan peribadi mereka. Model tujuan umum GPT-3.5 dan GPT-4, yang cemerlang dalam banyak aspek, adalah lebih baik dalam mengendalikan situasi ini.

    5 Ringkasan

    Data data DISC-Med-SFT mengambil kesempatan daripada kelebihan dan keupayaan dialog dunia sebenar dan aspek LLM umum, dan menjalankan tiga peningkatan domain, dalam tiga peningkatan domain. dialog perubatan Kemahiran dan keutamaan manusia; set data berkualiti tinggi melatih model besar perubatan DISC-MedLLM, yang mencapai peningkatan ketara dalam interaksi perubatan, menunjukkan kebolehgunaan yang tinggi, dan menunjukkan potensi aplikasi yang hebat.

    Penyelidikan dalam bidang ini akan membawa lebih banyak prospek dan kemungkinan untuk mengurangkan kos perubatan dalam talian, mempromosikan sumber perubatan, dan mencapai keseimbangan. DISC-MedLLM akan membawa perkhidmatan perubatan yang mudah dan diperibadikan kepada lebih ramai orang dan menyumbang kepada punca kesihatan umum.

Atas ialah kandungan terperinci Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:jiqizhixin.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam