ホームページ >テクノロジー周辺機器 >AI >医療における人工知能の行動規範は必要でしょうか?
生成型人工知能の台頭により、AI 倫理学者は、この進化するテクノロジーを医療分野で使用するリスクを軽減するためのフレームワークを提案するようになりました。同時に、ChatGPTのOpenAIのCEOも、人間の安全を確保するために人工知能の規制を開始するよう米国の議員に促した。
上: 生成型人工知能の台頭により、医療におけるその使用を規制する枠組みの導入を求める声が高まっています。
SF 作家アイザック アシモフは、1942 年の短編小説「Runaround」でロボット工学の三原則を提案しました。彼は 1992 年に亡くなりましたが、それは近年の生成人工知能の台頭を目の当たりにするずっと前でした。
生成人工知能には、ChatGPT や DALL-E などのアルゴリズムが含まれており、トレーニングされたデータを使用して、テキスト、画像、オーディオ、ビデオ、コンピューター コードなどの新しいコンテンツを作成できます。大規模言語モデル (LLM) は、生成人工知能の重要なコンポーネントであり、自己教師あり学習または半教師あり学習を使用して大量のラベルなしテキストでトレーニングされたニューラル ネットワークです。
現在、生成人工知能の機能は飛躍的に成長しています。医療分野では、大規模な患者データセットから学習することで患者の転帰を予測し、驚異的な精度で希少疾患を診断し、事前学習なしで米国医師免許試験に合格するために使用されており、60% のスコアを達成しました。
AI が医療に参入し、医師、看護師、その他の医療専門家に取って代わられる可能性があることから、AI 倫理学者のステファン ハラー氏は、医療で生成 AI を使用するためのフレームワークを提案しました。
Haller は、デジタル ヘルス共同研究センター (DHCRC) の最高イノベーション責任者であり、健康人工知能コンソーシアム (CHAI) のメンバーです。同氏は、生成AIの使用の問題は、明らかに虚偽、不適切、または危険なコンテンツを生成する能力にあると述べた。
Stephen Haller 氏は次のように述べています:「効率的な知識検索の本質は、適切な質問をすることであり、批判的思考の技術は、世界のモデルの妥当性を評価して答えを探索する能力に依存します。LLM はこれらのタスクを完了することができません。 「
ハラー氏は、生成人工知能には医療を変革する可能性があると信じていますが、それはまだ実現していません。この目的を達成するために、同氏は、医療における生成 AI によってもたらされるリスクを軽減できる 10 原則を含む倫理に基づく規制枠組みの導入を推奨しました。
ヨーロッパでは、来月欧州議会で人工知能法案が採決される予定です。この法案が可決されれば、生体認証監視や感情認識、警察で使用される一部の人工知能システムが禁止される可能性がある。
Stephen Haller のかなり一般的なフレームワークは、AI が人間に取って代わるリスクがある多くの職場に適用できます。それは、人々が(テクノロジーの作成責任者でさえも)人工知能の世界に一時停止を求めている時期に来ているようです。
医療業界は他の雇用業界よりも大きなリスクに直面していますか?このような枠組みは有益なのでしょうか?さらに重要なのは、AI の発展のスピードを考えると、AI は実際にリスクを軽減できるのでしょうか?おそらく、時間だけがこれらの質問に対する答えを与えてくれるでしょう。
友達が気に入ったら、「新しいことを知る」に注目してください。
以上が医療における人工知能の行動規範は必要でしょうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。