ホームページ  >  記事  >  テクノロジー周辺機器  >  AI チャットボットに健康に関する質問をしてみませんか?

AI チャットボットに健康に関する質問をしてみませんか?

王林
王林転載
2023-04-30 23:01:131088ブラウズ

AI チャットボットに健康に関する質問をしてみませんか?

4 月 28 日のニュース、OpenAI、Microsoft、Google が AI チャットボットを発表して以来、多くの人がインターネット検索の新しい方法、つまりモデルと会話し、知識を学習することを試み始めました。ウェブ全体から。

専門家らによると、これまで私たちは検索エンジンを通じて健康問題を問い合わせる傾向があったことを考えると、必然的にChatGPT、Bing、Bardなどのツールに質問するようになるという。ただし、これらのツールはプライバシーに関するよくある間違いを犯し、新たな間違いを生み出します。 「他の多くの人気テクノロジーと同様に、これらのツールは広告やマーケティングの力に影響されているため、消費者は少なくともこれらのツールを懐疑的に見る必要があります。」

AI チャットボットに機密の健康情報を共有する前、またはその他の秘密を共有する前に、知っておくべきことがいくつかあります:

1. これらのボットは私のチャット履歴を保存しますか?

はい、ChatGPT、Bing、Bard はすべてユーザー入力を保存します。ただし、少数のユーザーを対象にテストされている Google Bard では、ユーザーがクエリの記録の保存を停止し、ユーザーの Google アカウントとの関連付けを削除するよう同社に要求できる設定が提供されています。左上隅のメニューバーをクリックして「Bard Activity」を閉じるだけです。

ユーザーは、OpenAI の設定で [チャット履歴とトレーニング] オプションをオフにして、チャット記録の保存時間を制限することもできます。同社はチャット記録を閉鎖後30日間のみ保存し、人工知能のトレーニングに使用することは避けると述べた。

2. これらの企業は私たちのチャット記録をどのように扱っているのでしょうか?

これらの企業は、ユーザーのクエリと応答を使用して人工知能モデルをトレーニングし、より良い回答を提供します。ただし、これらのチャットはそれ以外にも使用できます。 Google と Microsoft は、人工知能チャットボットを展開したとき、ユーザーのチャット ログを広告に使用する余地をプライバシー ポリシーに残しました。つまり、整形外科用の靴について質問すると、将来的にはこのカテゴリの広告が表示される可能性があります。

そのような広告はユーザーにほとんど影響を与えない可能性があります。しかし、健康上の懸念とデジタル広告が交差すると、害が生じる可能性があります。これまでの報告では、WebMDやDrugs.comを含む多くの症状チェックサイトが、ユーザーのうつ病やHIVなどの潜在的にデリケートな健康上の懸念やユーザーIDを外部の広告会社と共有していたことが明らかになっている。

さらに、データ ブローカーは、人々とその健康上の懸念に関する広範なリストを購入者に販売します。購入者には政府や保険会社が含まれる場合があります。慢性疾患を患っている人の中には、インターネット上で不快なターゲット広告を見たと報告する人もいます。

これを考慮すると、ユーザーは、これらの企業が侵入的な広告からデータを保護してくれることをどの程度信頼できるかを検討し、Google または Microsoft と共有する健康情報の量を決定する必要があります。

OpenAI は、同社がモデルのトレーニングと改善のためにのみユーザーの検索結果を保存すると述べました。 OpenAIの広報担当者は、同社はチャットボットとのユーザーインタラクションをユーザープロフィールの構築や宣伝に利用しておらず、将来的にもそのような計画はないと述べた。

プライバシー非営利団体である電子フロンティア財団のコミュニティ組織化担当アソシエイトディレクターであるロリー・ミル氏は、企業が何を宣伝しているかに関係なく、AIトレーニングに自分のデータが使用されることを望まない人もいるかもしれないと述べた。同氏はさらに、「ある時点で、彼らが保持しているデータが、あまり信頼できない別の企業の手に渡る可能性があります。」

3. 私のチャット履歴を誰かが見ることはありますか?

チャットボットの回答をレビューするために、人間のレビュー担当者が関与する場合があります。これは、ユーザーからの質問も表示されることを意味します。たとえば、Google はレビューや注釈のために多くのチャットを最長 4 年間保存します。これらのモデレータはユーザーの Google アカウントを閲覧することはできませんが、Google はユーザーに対し、名前、住所、その他のユーザーや他者を特定できる可能性のある詳細を含む、個人を特定できる情報をチャット内で共有しないことを推奨しています。

4. チャット履歴はどのくらいの期間保存されますか?

ミーア氏は次のように述べています。「企業が当社のデータを収集し、長期間保管すると、プライバシーとセキュリティのリスクが生じる可能性があり、これらの企業はハッキングされたり、信頼できないビジネス パートナーとデータを共有したりする可能性があります。」

OpenAI のプライバシー ポリシーには、同社がユーザー データを「ユーザーにサービスを提供する必要がある場合、またはその他の正当なビジネス目的のためにのみ」保持すると記載されています。それは無期限になる可能性があるが、同社の広報担当者は詳細を明らかにしなかった。

さらに、Google と Microsoft は、ユーザーが削除を要求するまでユーザー データを保持します。

5. ロボットが提供する健康情報は信頼できますか?

米国のジョンズ・ホプキンス大学ビジネススクールで運用管理と人工知能の医療への影響に関するビジネス分析の教授であるダイ・ティンロン氏は、インターネットは募金袋のようなものだと述べた健康情報には役に立つものもあれば、あまり役に立たない情報もあります。 ChatGPT のような大規模な言語モデルは、スパムのフィルタリングにおいて通常の検索エンジンよりも優れた機能を発揮する可能性があります。

たとえば、ChatGPT は、特定の症状や状態に関連する研究を見つけるのに役立つ場合、Google Scholar よりも優れている可能性があります。ダイ教授の研究では、医師が発見できない希少疾患をチャットボットが正しく診断できるかどうかを調査している。

しかし、ダイ・ティンロン教授は、正確な健康指導を提供するためにチャットボットに依存すべきという意味ではないと指摘しました。同氏は、モデルが情報をでっち上げて事実として提示することが示されており、モデルの間違った答えが非常に信憑性があるように見える可能性があると述べた。

さらに、人工知能モデルは信頼性の低い情報源からも情報を取得します。たとえば、ユーザーがなぜいつも疲れているのかと尋ねると、Bard は小さなシーズー犬の気質についての Web サイトを引用しながら、考えられる答えをいくつか提示するかもしれません。チャットボットの推奨を信頼しすぎる人間の傾向と相まって、これは大きな問題を引き起こす可能性があります。

Dai Tinglong 教授は次のように警告しました。「このテクノロジーのパフォーマンスは素晴らしいですが、今では赤ちゃんのようなもの、あるいは十代の若者のようなものです。人々はそれを試しているだけで、人々がそれを使い始めたとき、あなたがそれに依存すると、非常に危険になります。」

6. 安全性を確保するために健康情報を照会するにはどうすればよいですか?

医療へのアクセスが不均一であったり、医療費が高額だったりするため、体調が悪いときに誰もが医師に相談できるわけではありません。自分の健康情報が会社のサーバーに保存されたり、広告素材として使用されたりしたくない場合は、プライバシーを保護するブラウザを使用できます。

セラピー ボットなどの AI チャットベースの医療サービスにサインアップする前に、まずテクノロジーの制限を理解し、企業のプライバシー ポリシーを確認して、データを「サービスの改善」や共有に使用しているかどうかを確認してください。身元不明の「ベンダー」または「ビジネスパートナー」とのデータ。どちらの用語も、広告主によってよく使用される婉曲表現です。 (シャオシャオ)

以上がAI チャットボットに健康に関する質問をしてみませんか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。