ホームページ  >  記事  >  テクノロジー周辺機器  >  ヒントンの予言は当たる!米国とカナダのトップ大学であるNatureが記事を掲載しました:総合医療用人工知能GMAIは「放射線科医」に代わるだけではない

ヒントンの予言は当たる!米国とカナダのトップ大学であるNatureが記事を掲載しました:総合医療用人工知能GMAIは「放射線科医」に代わるだけではない

WBOY
WBOY転載
2023-04-30 10:46:06877ブラウズ

チューリング賞受賞者でディープラーニングの先駆者であるヒントンは、かつてこう予言しました、「人々は放射線科医の訓練を今すぐやめるべきだ。5年後にはディープラーニングの方が放射線科医よりも良い成績を収めることは明らかだ。これにはおそらく10年かかるだろう」 「しかし、放射線科医はすでに十分です。」

あなたが放射線科医であるなら、あなたは崖の端に到達した放射線科医のようなものだと思います。しかし、野生のオオカミはまだ下を向いていません。

ヒントンの予言は当たる!米国とカナダのトップ大学であるNatureが記事を掲載しました:総合医療用人工知能GMAIは「放射線科医」に代わるだけではない

7年近くが経過しましたが、人工知能技術は放射線科医の技術業務の一部に参加し、代替するにとどまっており、単機能や多機能化などの問題を抱えています。トレーニングデータが不十分です。放射線科医には引き続き仕事をしっかりと続けてもらいましょう。

しかし、ChatGPT クラスの基本モデルのリリース後、人工知能モデルの機能は前例のないほど向上しました。学習機能、柔軟性が高く再利用可能な人工知能モデルの迅速な開発により、医療分野に新しい機能が導入される可能性があります。

最近、ハーバード大学、スタンフォード大学、米国のエール大学医学部、カナダのトロント大学など、多くの一流大学や医療機関の研究者が共同で、ある方法を提案しました。 in Nature 医療用人工知能の新たなパラダイム、すなわち「ジェネラリスト医療人工知能(GMAI)」。

ヒントンの予言は当たる!米国とカナダのトップ大学であるNatureが記事を掲載しました:総合医療用人工知能GMAIは「放射線科医」に代わるだけではない

論文リンク: https://www.nature.com/articles/s41586-023-05881-4

GMAI モデルは、タスク固有のラベル付きデータをほとんどまたはまったく使用せずに、さまざまなタスクを実行できるようになります。 GMAI は、大規模で多様なデータセットでの自己教師ありトレーニングを通じて、画像、電子医療記録、検査結果、ゲノミクス、チャート、医療テキストなどのデータを含む医療モダリティのさまざまな組み合わせを柔軟に解釈できます。

さらに、モデルは、フリーテキストの説明、口頭での推奨事項、画像の注釈などの表現力豊かな出力を生成し、高度な医学的推論機能を実証することもできます。

この記事の中で、研究者らは GMAI に大きな影響を与える潜在的なアプリケーション シナリオを特定し、具体的な技術的能力とトレーニング データ セットを列挙しました。

著者チームは、GMAI アプリケーションが現在検証されている医療 AI デバイスに挑戦し、大規模な医療データ セットの収集に関連する慣行を変えることになると予想しています。

医療 AI の一般モデルの可能性

GMAI モデルは、特定のタスクであっても、現在の医療 AI モデルよりも多様で困難なタスクを解決すると期待されています。ラベルの要件。

GMAI の 3 つの定義された機能のうち、「動的に指定されたタスクを実行する機能」と「データ パターンの柔軟な組み合わせをサポートする機能」により、GMAI モデルとユーザー間の柔軟なコミュニケーションが可能になります。 . インタラクション: 3 番目の機能では、GMAI モデルが医療分野の知識を正式に表現し、高度な医学的推論を実行できる必要があります。

ヒントンの予言は当たる!米国とカナダのトップ大学であるNatureが記事を掲載しました:総合医療用人工知能GMAIは「放射線科医」に代わるだけではない

最近リリースされたいくつかの基本モデルは、GMAI の機能の一部を実証しています。複数のモダリティを柔軟に組み合わせることで、新しいタスクを動的に指定できますが、上記の 3 つの機能を備えた GMAI モデルを構築するには、さらなる開発が必要であり、たとえば、既存の医療推論モデル (GPT-3 や PaLM など) はマルチモーダルではなく、信頼できる事実の記述を生成できません。

#柔軟なインタラクション柔軟なインタラクション

GMAI はユーザーにカスタム クエリを提供します。モデルにより、さまざまな対象者が AI の洞察にアクセスしやすくなり、さまざまなタスクや設定に対する柔軟性が向上します。

現在、人工知能モデルは、非常に限られた一連のタスクしか処理できず、一連の厳密で事前に決定された出力を生成できます。たとえば、モデルは特定の病気を検出し、特定の画像を受け入れて出力できます。結果は次のとおりです。病気を発症する可能性。

対照的に、カスタム クエリでは、ユーザーが頭を撫でながら思いつくような質問を入力できます。たとえば、「頭部 MRI スキャンで現れたこの塊について説明してください。可能性は高いですか?」腫瘍ですか膿瘍ですか?」

ヒントンの予言は当たる!米国とカナダのトップ大学であるNatureが記事を掲載しました:総合医療用人工知能GMAIは「放射線科医」に代わるだけではない

さらに、クエリを使用すると、ユーザーは出力の形式をカスタマイズできます。たとえば、「これは神経膠芽腫のフォローアップ MRI スキャンです」患者は、腫瘍である可能性のある部分が赤で強調表示されています。」

カスタム クエリは、「動的タスク」と「マルチモーダル入出力」という 2 つの重要な機能を実現できます。 ###。

カスタム クエリは、AI モデルに新しい問題をその場で解決するように学習させ、モデルを再トレーニングすることなく新しいタスクを動的に指定できます。

たとえば、GMAI は、「この超音波検査の結果に基づくと、胆嚢壁の厚さは何ミリメートルですか?」など、これまで見たことのない非常に具体的な質問に答えることができます。

GMAI モデルは、未知の概念や病理を含む新しいタスクを完了するのが難しい場合がありますが、コンテキスト内学習により、ユーザーは非常に少ない例で新しいタスクを学習するように GMAI に教えることができます。「」などの概念ここに、以前にランギャ ヘニパ ウイルス感染という新たな新興疾患を患っていた 10 人の患者の病歴があります。この現在の患者もランギア ヘニパ ウイルスに感染している可能性はどのくらいですか?」

カスタム クエリでは、複数のモダリティを含む複雑な医療情報も受け入れることができます。たとえば、臨床医が診断について問い合わせる場合、レポート、波形信号、検査結果、ゲノム マッピングなどを入力できます。 GMAI モデルは、回答にさまざまなモードを柔軟に組み込むこともでき、たとえば、ユーザーはテキストによる回答と付随する視覚情報を求めることができます。

ヒントンの予言は当たる!米国とカナダのトップ大学であるNatureが記事を掲載しました:総合医療用人工知能GMAIは「放射線科医」に代わるだけではない

#医療分野の知識

および臨床医師とはまったく対照的に、従来の医療用人工知能モデルは通常、特定のタスクのトレーニングを行う前に医療分野の背景 (病態生理学的プロセスなど) の理解を欠いており、入力データとデータの特性に完全に依存することしかできません。予測対象との間の統計的相関。

背景情報が不足していると、特にタスク データが不足している場合に、特定の医療タスクのモデルをトレーニングすることが困難になる可能性があります。

ヒントンの予言は当たる!米国とカナダのトップ大学であるNatureが記事を掲載しました:総合医療用人工知能GMAIは「放射線科医」に代わるだけではない

GMAI モデルは、医学知識を形式的に表現することでこれらの欠陥を解決できます。ナレッジ グラフなどの構造により、モデルは医療概念と医療概念間の関係を理解できるようになります。 GMAI は、関係に基づいた推論に加えて、検索ベースの手法に基づいて、記事、画像、または過去の事例の形式で既存のデータベースから関連する背景を取得できます。

結果として得られるモデルは、次のようないくつかの警告を提供できます。「この患者は最近重度の胸部外傷で入院し、酸素の量が増加したにも関わらず入院したため、急性呼吸窮迫症候群を発症する可能性があります。しかし、患者の動脈血中の酸素分圧は低下し続けています。」

なぜなら、GMAI モデルは、そのほとんどが観察データに基づいているにもかかわらず、治療の推奨事項を提供するよう求められることもあるためです。医学概念と臨床所見の間の因果関係を推論し、活用するモデルの能力は、臨床応用において重要な役割を果たすでしょう。

最後に、GMAI モデルは豊富な分子知識と臨床知識にアクセスすることで、関連する問題の知識を利用してデータが限られたタスクを解決できます。

機会

GMAI は、ケアを改善し、臨床医の作業負荷を軽減することで、実際の医療プロセスに影響を与える可能性があります。

制御性

GMAI を使用すると、ユーザーは出力形式を細かく制御できます。複雑な医療情報は入手しやすく理解しやすいため、聴衆のニーズに応じてモデルの出力を言い換えるために、ある種の GMAI モデルが必要になります。

ヒントンの予言は当たる!米国とカナダのトップ大学であるNatureが記事を掲載しました:総合医療用人工知能GMAIは「放射線科医」に代わるだけではない

GMAI が提供する視覚化結果も、視点を変更したり、重要な特徴にテキストのラベルを付けたりするなど、慎重にカスタマイズする必要があります。また、出力内の特定のドメインの詳細レベルを調整したり、複数の言語に翻訳してさまざまなユーザーと効果的にコミュニケーションしたりすることもできます。

最後に、GMAI の柔軟性により、現地の習慣や政策に従って、特定の地域や病院に適応させることができます。ユーザーには、GMAI モデルをクエリし、そのモデルを効果的に利用する方法についてのガイダンスが必要になる場合があります。出力、正式なガイダンス。

適応性

既存の医療用人工知能モデルは分布の変化に対処することが困難ただし、テクノロジー、手順、環境、人口の継続的な変化により、データの分布は劇的に変化する可能性があります。

GMAI は、コンテキスト学習を通じて変化のペースに追いつくことができます。たとえば、病院は、プロンプトを入力するだけで、新品のスキャナーからの X 線を解釈するように GMAI モデルに教えることができます。ほんの一例です。

言い換えれば、GMAI は新しいデータ分布に即座に適応できますが、従来の医療用人工知能モデルは新しいデータセットで再トレーニングする必要がありますが、現時点では大規模な言語モデルでのみその機能が適用されます。コンテキスト内学習の効果が で観察されました。

GMAI がコンテキストの変化に適応できるようにするには、複数の補完的なデータ ソースからの多様なデータで GMAI モデルをトレーニングする必要があります。

ヒントンの予言は当たる!米国とカナダのトップ大学であるNatureが記事を掲載しました:総合医療用人工知能GMAIは「放射線科医」に代わるだけではない

たとえば、2019 年のコロナウイルス感染症の新しい変異株に適応するために、成功したモデルは過去の変異株の特徴を取得し、これらの変異株を更新することを予測できます。新しいコンテキストの特徴を確認するには、臨床医は単に「これらの胸部 X 線写真で Omicron を確認してください」と入力するだけで済みます。

気管支および血管周囲の浸潤を重要な信号として考慮して、モデルをデルタ バリアントと比較できます。

ユーザーはプロンプトの言葉を通じてモデルの動作を手動で調整できますが、新しいテクノロジーは人間のフィードバックを自動的に組み込む役割を果たすこともできます。

ユーザーは、ChatGPT で使用される強化学習フィードバック テクノロジと同様に、GMAI モデルの各出力を評価またはコメントすることができ、GMAI モデルの動作を変更できます。

適用性

大規模な人工知能モデルは下流の基盤となっていますGPT-3 などのアプリケーションは、リリースから数か月以内にさまざまな業界の 300 以上のアプリケーションに技術サポートを提供してきました。

医療基本モデルの中でも、CheXzero は胸部 X 線写真で数十の疾患を検出するために使用でき、これらの疾患の明示的なラベルに関するトレーニングは必要ありません。

GMAI へのパラダイム シフトは、GMAI の出力を直接使用するか、GMAI のresult は中間表現として使用され、その後小さなドメイン モデルに接続されます。

この柔軟な適用性は諸刃の剣でもあり、基本モデルに存在するすべての障害は下流のアプリケーションに伝播し続けることに注意してください。

課題

GMAIモデルには多くの利点がありますが、他の分野に比べて特に医療分野におけるセキュリティリスクは高く、セキュリティを確保するための課題がまだあります。安全な展開。

検証/確認

GMAI モデルは前例のない機能性を備えているため、習熟度の検証も非常に困難です。

現在の AI モデルは特定のタスク向けに設計されているため、脳の MRI や特定の種類のがんからのデータの診断など、事前に定義されたユースケースでのみ検証する必要があります。

しかし、GMAI モデルは、最初にエンド ユーザーによって提案された、これまで見たことのないタスク (脳の MRI による他の病気の診断など) も実行できます。すべての故障モードを予測する方法はさらに難しい問題です。

ヒントンの予言は当たる!米国とカナダのトップ大学であるNatureが記事を掲載しました:総合医療用人工知能GMAIは「放射線科医」に代わるだけではない

開発者と規制当局は、GMAI モデルがどのようにテストされ、どのようなユースケースが承認されているかを説明する責任があり、GMAI インターフェイス自体を設計する必要があります。未知の領域に入るときは、自信を持って不正確な情報を捏造するのではなく、「適応外使用」について警告します。

より広く言えば、GMAI の独自の幅広い機能には規制上の先見性が必要であり、保険の取り決めや責任の配分も再構築する新しいパラダイムに適応するために組織および政府の政策が必要です。

検証

従来の人工知能モデルと比較して、GMAI モデルは信じられないほど複雑な処理が可能です入力と出力が異なるため、臨床医がその正しさを判断することがさらに困難になります。

たとえば、従来のモデルでは、患者のがんを分類するときに 1 つの画像検査の結果のみが考慮され、モデルの検証には放射線科医または病理学者だけが必要です。出力は正しいですか? ?

GMAI モデルは 2 つの入力を考慮し、初期分類、治療の推奨事項、視覚化、統計分析、文献参照を含むマルチモーダルな議論を出力します。

ヒントンの予言は当たる!米国とカナダのトップ大学であるNatureが記事を掲載しました:総合医療用人工知能GMAIは「放射線科医」に代わるだけではない

この場合、多分野のチーム(放射線科医、病理医、腫瘍医の医師、その他の専門家で構成される)が、 GMAI の出力は正しいです。

したがって、GMAI 出力のファクトチェックは、検証中とモデルのデプロイ後の両方において、重大な課題となります。

クリエイターは、解釈可能なテクノロジーを組み込むことで、GMAI 出力を検証しやすくすることができます。たとえば、GMAI 出力にクリック可能な文献や特定の証拠の一節を含めることができるため、臨床医は GMAI の予測をより効果的に検証できます。 。

最後に、GMAI モデルが不確実性を正確に表現し、自信過剰な発言でユーザーを誤解させることを防ぐことが重要です。

社会的偏見

医療 AI モデルは社会の偏見を永続させ、疎外されたグループに害を及ぼす可能性があります。

これらのリスクは、大量のデータの要求と複雑さにより、モデルに望ましくないバイアスが含まれていないことを保証することが困難になる可能性がある GMAI の開発時に、より明らかになる可能性があります。

GMAI モデルは、少数派グループなどの特定の集団でパフォーマンスが低下しないように、徹底的に検証する必要があります。

モデルが新しいタスクや環境に遭遇すると、迅速に特定して修正する必要がある新しい問題が発生する可能性があるため、展開後でもモデルには継続的な監査と監視が必要です。バイアスを優先する必要があります。開発者、ベンダー、規制当局向け。

プライバシー

GMAI モデルの開発と使用は、患者のプライバシーに重大なリスクをもたらし、豊富な情報にアクセスできる可能性があります。臨床測定値と信号、分子シグネチャーと人口統計情報、行動追跡データと感覚追跡データなどの患者の特徴。

さらに、GMAI モデルは、トレーニング データを記憶し、ユーザーに直接繰り返すのが容易な大規模なアーキテクチャを使用する可能性があり、トレーニング データ セット内の機密の患者データが公開される可能性があります。

データの漏洩による被害は、個々の患者について収集される情報を匿名化し、量を制限することで軽減できます。

プライバシーの問題はトレーニング データに限定されません。デプロイされた GMAI モデルは、現在の患者データも公開する可能性があります。たとえば、プロンプトによって GPT-3 などのモデルが欺瞞され、以前の指示が無視される可能性があります。悪意のあるユーザーは、機密データを抽出するために「情報を公開しない」という指示をモデルに無視させることができます。

以上がヒントンの予言は当たる!米国とカナダのトップ大学であるNatureが記事を掲載しました:総合医療用人工知能GMAIは「放射線科医」に代わるだけではないの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。