Rumah >Peranti teknologi >AI >Pandangan alam semula jadi: Ujian kecerdasan buatan dalam perubatan berada dalam keadaan huru-hara Apa yang perlu dilakukan?
Berdasarkan data klinikal yang terhad, beratus-ratus algoritma perubatan telah diluluskan. Para saintis sedang membahaskan siapa yang harus menguji alat dan cara terbaik untuk melakukannya.
Siapa yang menguji sistem AI perubatan?
Aplikasi perubatan berasaskan AI, seperti yang sedang dibangunkan oleh Singh, sering dianggap peranti perubatan oleh pengawal selia ubat, termasuk FDA AS dan Agensi Pengawalseliaan Ubat dan Penjagaan Kesihatan UK. Oleh itu, piawaian untuk semakan dan kebenaran penggunaan secara amnya kurang ketat daripada piawaian untuk farmaseutikal. Hanya subset kecil peranti—yang mungkin menimbulkan risiko tinggi kepada pesakit—memerlukan data percubaan klinikal untuk kelulusan.
Ramai orang berpendapat ambang terlalu rendah. Apabila Gary Weissman, seorang doktor penjagaan kritikal di University of Pennsylvania di Philadelphia, menyemak peranti AI yang diluluskan oleh FDA dalam bidangnya, dia mendapati bahawa daripada sepuluh peranti yang dikenal pastinya, hanya tiga yang memetik data yang diterbitkan dalam kebenaran mereka. Hanya empat menyebut penilaian keselamatan, dan tidak termasuk penilaian berat sebelah, yang menganalisis sama ada keputusan alat itu adil kepada kumpulan pesakit yang berbeza. "Kebimbangannya ialah peranti ini boleh dan memberi kesan kepada penjagaan di tepi katil," katanya "Kehidupan pesakit mungkin bergantung pada keputusan ini
Kekurangan data menyukarkan hospital dan sistem kesihatan untuk membuat keputusan sama ada untuk menggunakan ini." teknologi dalam keadaan yang sukar. Dalam sesetengah kes, insentif kewangan turut dimainkan. Di Amerika Syarikat, sebagai contoh, pelan insurans kesihatan sudah membayar balik hospital untuk penggunaan peranti AI perubatan tertentu, menjadikannya menarik dari segi kewangan. Institusi ini juga mungkin cenderung untuk menggunakan alat AI yang menjanjikan penjimatan kos, walaupun mereka tidak semestinya meningkatkan penjagaan pesakit.
Ouyang berkata insentif ini mungkin menghalang syarikat AI daripada melabur dalam ujian klinikal. "Untuk banyak perniagaan komersial, anda boleh bayangkan mereka akan bekerja lebih keras untuk memastikan alat AI mereka boleh dibayar balik," katanya.
Situasi mungkin berbeza di pasaran yang berbeza. Di United Kingdom, sebagai contoh, pelan kesihatan negara yang dibiayai oleh kerajaan mungkin menetapkan ambang bukti yang lebih tinggi sebelum pusat perubatan boleh membeli produk tertentu, kata Xiaoxuan Liu, seorang penyelidik klinikal di Universiti Birmingham yang mengkaji inovasi yang bertanggungjawab dalam kecerdasan buatan insentif untuk menjalankan ujian klinikal. "
Sebaik sahaja hospital membeli produk AI, mereka tidak perlu menjalankan ujian lanjut dan boleh menggunakannya serta-merta seperti perisian lain. Walau bagaimanapun, sesetengah agensi menyedari bahawa kelulusan kawal selia bukanlah jaminan bahawa peranti itu sebenarnya akan memberi manfaat. Jadi mereka memilih untuk mengujinya sendiri. Pada masa ini, banyak usaha ini dijalankan dan dibiayai oleh pusat perubatan akademik, kata Ouyang.
Alexander Vlaar, pengarah perubatan rawatan rapi di Pusat Perubatan Universiti Amsterdam, dan Denise Veelo, pakar bius di institusi yang sama, memulakan usaha sedemikian pada 2017. Matlamat mereka adalah untuk menguji algoritma yang direka untuk meramalkan berlakunya hipotensi semasa pembedahan. Keadaan ini, yang dikenali sebagai hipotensi intraoperatif, boleh membawa kepada komplikasi yang mengancam nyawa seperti kerosakan otot jantung, serangan jantung dan kegagalan buah pinggang akut, dan juga kematian.
Algoritma, dibangunkan oleh Edwards Lifesciences yang berpangkalan di California, menggunakan data bentuk gelombang arteri — garis merah dengan puncak dan palung dipaparkan pada monitor di jabatan kecemasan atau unit rawatan rapi. Kaedah ini boleh meramalkan hipotensi beberapa minit sebelum ia berlaku, membolehkan campur tangan awal.
Pada masa ini, kebanyakan alatan AI perubatan membantu profesional penjagaan kesihatan dengan pemeriksaan, diagnosis atau perancangan rawatan. Pesakit mungkin tidak menyedari bahawa teknologi ini sedang diuji atau digunakan secara rutin dalam penjagaan mereka, dan tiada negara pada masa ini memerlukan penyedia penjagaan kesihatan untuk mendedahkan perkara ini.
Perdebatan berterusan mengenai perkara yang perlu diberitahu kepada pesakit tentang teknologi kecerdasan buatan. Beberapa apl ini telah mendorong isu persetujuan pesakit menjadi perhatian pembangun. Begitulah halnya dengan peranti kecerdasan buatan yang sedang dibangunkan oleh pasukan Singh untuk menyelaraskan penjagaan kanak-kanak di bilik kecemasan SickKids.
Apa yang sangat berbeza tentang teknologi ini ialah ia menyingkirkan doktor daripada keseluruhan proses, membenarkan kanak-kanak (atau ibu bapa atau penjaga mereka) menjadi pengguna akhir.
“Apa yang dilakukan oleh alat ini ialah mengambil data percubaan kecemasan, membuat ramalan dan memberi kelulusan terus kepada ibu bapa — ya atau tidak — jika anak mereka boleh diuji,” kata Singh. Ini mengurangkan beban doktor dan mempercepatkan keseluruhan proses. Tetapi ia juga membawa banyak masalah yang tidak pernah berlaku sebelum ini. Siapa yang bertanggungjawab jika berlaku masalah kepada pesakit? Siapa yang membayar jika ujian yang tidak perlu dilakukan?
“Kami perlu mendapatkan persetujuan termaklum daripada keluarga secara automatik.” Singh berkata, dan persetujuan itu mestilah boleh dipercayai dan sahih. “Ini tidak seperti apabila anda mendaftar untuk media sosial dan mempunyai 20 halaman cetakan halus dan anda hanya klik terima
Sementara Singh dan rakan-rakannya menunggu dana untuk memulakan ujian ke atas pesakit, pasukan itu bekerja dengan undang-undang.” pakar dan Libatkan agensi kawal selia negara, Health Canada, dalam menyemak cadangannya dan mempertimbangkan implikasi kawal selia. Pada masa ini, "landskap kawal selia adalah sedikit seperti Wild West," kata Anna Goldenberg, seorang saintis komputer dan pengerusi bersama Inisiatif Kecerdasan Buatan Perubatan Kanak-kanak SickKids.
Mencari penyelesaianInstitusi perubatan secara berhemat menggunakan alatan AI dan menjalankan ujian autonomi.
Faktor kos telah mendorong penyelidik dan institusi perubatan untuk meneroka alternatif.
Institusi perubatan yang besar mempunyai lebih sedikit kesukaran, manakala institusi kecil menghadapi cabaran yang lebih besar.
Mayo Clinic menguji alat AI untuk digunakan dalam tetapan penjagaan kesihatan komuniti.
The Health AI Alliance menubuhkan makmal jaminan untuk menilai model tersebut.
Universiti Duke mencadangkan keupayaan ujian dalaman untuk mengesahkan model AI secara tempatan.
Ahli radiologi Nina Kottler menekankan kepentingan pengesahan tempatan.
Faktor manusia perlu diberi perhatian untuk memastikan ketepatan kecerdasan buatan dan pengguna akhir.
Kandungan rujukan: https://www.nature.com/articles/d41586-024-02675-0
Atas ialah kandungan terperinci Pandangan alam semula jadi: Ujian kecerdasan buatan dalam perubatan berada dalam keadaan huru-hara Apa yang perlu dilakukan?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!