ホームページ >テクノロジー周辺機器 >AI >医療における人工知能の行動規範は必要でしょうか?

医療における人工知能の行動規範は必要でしょうか?

王林
王林転載
2023-05-31 12:53:191204ブラウズ

生成型人工知能の台頭により、AI 倫理学者は、この進化するテクノロジーを医療分野で使用するリスクを軽減するためのフレームワークを提案するようになりました。同時に、ChatGPTのOpenAIのCEOも、人間の安全を確保するために人工知能の規制を開始するよう米国の議員に促した。

医療における人工知能の行動規範は必要でしょうか?

上: 生成型人工知能の台頭により、医療におけるその使用を規制する枠組みの導入を求める声が高まっています。

SF 作家アイザック アシモフは、1942 年の短編小説「Runaround」でロボット工学の三原則を提案しました。彼は 1992 年に亡くなりましたが、それは近年の生成人工知能の台頭を目の当たりにするずっと前でした。

生成人工知能には、ChatGPT や DALL-E などのアルゴリズムが含まれており、トレーニングされたデータを使用して、テキスト、画像、オーディオ、ビデオ、コンピューター コードなどの新しいコンテンツを作成できます。大規模言語モデル (LLM) は、生成人工知能の重要なコンポーネントであり、自己教師あり学習または半教師あり学習を使用して大量のラベルなしテキストでトレーニングされたニューラル ネットワークです。

現在、生成人工知能の機能は飛躍的に成長しています。医療分野では、大規模な患者データセットから学習することで患者の転帰を予測し、驚異的な精度で希少疾患を診断し、事前学習なしで米国医師免許試験に合格するために使用されており、60% のスコアを達成しました。

AI が医療に参入し、医師、看護師、その他の医療専門家に取って代わられる可能性があることから、AI 倫理学者のステファン ハラー氏は、医療で生成 AI を使用するためのフレームワークを提案しました。

Haller は、デジタル ヘルス共同研究センター (DHCRC) の最高イノベーション責任者であり、健康人工知能コンソーシアム (CHAI) のメンバーです。同氏は、生成AIの使用の問題は、明らかに虚偽、不適切、または危険なコンテンツを生成する能力にあると述べた。

Stephen Haller 氏は次のように述べています:「効率的な知識検索の本質は、適切な質問をすることであり、批判的思考の技術は、世界のモデルの妥当性を評価して答えを探索する能力に依存します。LLM はこれらのタスクを完了することができません。 「

ハラー氏は、生成人工知能には医療を変革する可能性があると信じていますが、それはまだ実現していません。この目的を達成するために、同氏は、医療における生成 AI によってもたらされるリスクを軽減できる 10 原則を含む倫理に基づく規制枠組みの導入を推奨しました。

    人間の意思決定者を強化する補助ツールとして人工知能を設計しますが、人間の意思決定者に取って代わることはありません。
  1. パフォーマンス、使用状況、影響に関する指標を生成する AI を設計し、意思決定を支援するために AI をいつどのように使用するかを説明し、潜在的なバイアスをスキャンします。
  2. 対象となるユーザー グループの価値観に基づいて、それに準拠する人工知能を設計します。
  3. コンセプトや開発作業の開始時点から、AI の目的と用途を発表します。
  4. 人工知能のトレーニングに使用されるすべてのデータ ソースを公開します。
  5. AI が生成したコンテンツに明確かつ透過的にラベルを付けるように AI を設計します。
  6. データ プライバシー、セキュリティ、パフォーマンス基準に照らして AI を定期的に監査します。
  7. 監査結果を記録して共有し、AI の機能、制限、リスクについてユーザーに教育し、アルゴリズムの再トレーニングと更新によって AI のパフォーマンスを向上させます。
  8. 人材育成スタッフを雇用する際には、公正な労働と安全な労働の基準が適用されるようにします。
  9. データを AI トレーニングに使用できる場合を明確に定義し、トレーニング データ、AI が生成したコンテンツ、およびそのデータを使用して行われる人間の意思決定を管理するための著作権、責任、説明責任の枠組みを確立する判例を確立します。
興味深いことに、Stephen Haller のフレームワークは、ChatGPT の Open AI CEO、Sam Altman の呼びかけと一致しています。彼は米国の議員に対し、人工知能が人間にもたらす潜在的なリスクを防ぐために政府規制を導入するよう求めています。イーロン・マスク氏の支援を受けて2015年にOpenAIを共同設立したサム・アルトマン氏は、政府がより強力なAIモデルをリリースする前にライセンスとテスト要件を導入することを提案した。

ヨーロッパでは、来月欧州議会で人工知能法案が採決される予定です。この法案が可決されれば、生体認証監視や感情認識、警察で使用される一部の人工知能システムが禁止される可能性がある。

Stephen Haller のかなり一般的なフレームワークは、AI が人間に取って代わるリスクがある多くの職場に適用できます。それは、人々が(テクノロジーの作成責任者でさえも)人工知能の世界に一時停止を求めている時期に来ているようです。

医療業界は他の雇用業界よりも大きなリスクに直面していますか?このような枠組みは有益なのでしょうか?さらに重要なのは、AI の発展のスピードを考えると、AI は実際にリスクを軽減できるのでしょうか?おそらく、時間だけがこれらの質問に対する答えを与えてくれるでしょう。

友達が気に入ったら、「新しいことを知る」に注目してください。

以上が医療における人工知能の行動規範は必要でしょうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事はsohu.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。