ホームページ > 記事 > テクノロジー周辺機器 > ChatGPT の過去と未来: デジタル通信における人工知能とデータ プライバシーの進化
翻訳者 | Liu Tao
レビュアー| Chonglou
過去数年間の人工知能の発展は、私たちにチャンスだけでなく挫折ももたらしました。いくつかの大きな進歩はインターネットに革命をもたらしましたが、その多くはより良いものです。
しかし、人々が OpenAI の ChatGPT のリリースを準備する前に、それはすでに全世界を席巻していました。これにより、人間と自然に会話し、非常に短時間で洞察力に富んだ答えを与える、これまでにない能力が生まれます。
ChatGPT ができることに世間の注目が集まり始めるにつれ、世界中の先見の明のあるリーダーは皆、その時点からデジタル コミュニケーション テクノロジが革命的な変化をもたらすことに気づきました。
しかし、イノベーションにはしばしば論争が伴います。この場合、Supernova チャットボットは正規データのプライバシーに対処する必要がありました。
ChatGPT の開発には広範なデータ収集が必要でしたが、OpenAI がチャットボットの動作、処理、保存方法を正確に説明できないため、思想的リーダーや政府のプライバシー監視機関がデータ プライバシーの実践について懸念を表明しました。データにも疑問がどんどん出てきています。
この問題は世間の注目を集めていないわけではなく、2023 年の調査によると、世界の消費者の 67% がテクノロジー企業からデータのコントロールを失いつつあると考えています。
同じ調査では、iOS アプリの 72.6% がプライベート ユーザー データを追跡しており、無料アプリは有料アプリよりもユーザー データを追跡する可能性が 4 倍高いことも示しています。
これについて心配な場合は、ChatGPT のほとんどのユーザーが依然として無料版を使用していることを思い出してください。
これを考慮して、データ プライバシー企業は、ChatGPT によって生成された結果を最大限に活用し、データ プライバシーを強化する製品を提供し、データの透明性を高め、より優れた文化的な雰囲気を作り出す必要があります。これにより、人々は自分のデータの権利とその使用方法を認識できるようになり、また、多くの大手テクノロジー企業の場合のように、これらの画期的な AI テクノロジーが非倫理的な戦術に依存して金儲けをすることもなくなります。
ChatGPT は大規模言語モデル (LLM) であり、適切に動作するには大量のデータが必要であることを意味します。情報を一貫して予測し、処理します。
つまり、インターネット上に記事を書いたことがある人であれば、ChatGPT がこの情報をスキャンして処理している可能性が非常に高いです。
さらに、ChatGPT のような大規模言語モデル (LLM) は、オンライン ソース (電子書籍、記事、ソーシャル メディアの投稿など) からの大量のデータに大きく依存しています。アルゴリズムをトレーニングします。これにより、ユーザーはこれを使用して、人間が書いたテキスト メッセージと同じように見える本物の応答を生成できます。
つまり、Web に公開されている記事はすべて、ChatGPT またはその競合他社の大規模言語モデル (LLM) のトレーニングに使用でき、ChatGPT で確実に使用されることになります。成功後に立ち上がります。
OpenAI は最近、データ漏洩がオープンソース ライブラリの脆弱性によって引き起こされたことを認めたため、データ プライバシー問題に対する懸念は驚くべきことではありません。さらに、あるサイバーセキュリティ会社は、最近追加されたコンポーネントが積極的に悪用されている脆弱性に対して脆弱であることを発見しました。
OpenAI が調査を実施した結果、流出したデータにはアクティブ ユーザーのチャット履歴のタイトルと、新しく作成された会話の最初のメッセージが含まれていることが判明しました。
この脆弱性により、ChatGPT Plus ユーザーの 1.2% の氏名、電子メール アドレス、支払い住所、支払いカードの有効期限、支払いカード番号などの支払い情報も漏洩しました。最後の 4 桁。
これがデータ保護の大惨事であると言っても過言ではありません。 ChatGPT 内にはおそらく地球上のどの製品よりも多くの情報があり、リリースからわずか数か月で機密情報がすでに漏洩しています。
希望の光はこれです。ChatGPT がプライバシーにもたらす本当のリスクに世間の注目を集めることで、個人がデータ保護の重要性を理解し、より深い理解を得る絶好の機会となります。さらに詳しく。 ChatGPT のユーザー ベースが急速に拡大していることを考えると、これは特に重要です。
ユーザーは、予防措置を講じて警戒を続けることに加えて、個人データにアクセス、編集、削除する権利の保持を含むデータ主体の権利 (DSR) を行使することも求められます。
デジタル時代においては、すべてのユーザーが自分の個人情報をより適切に管理し、最大限の責任を持って使用できるように、より強力なデータ プライバシー規制の擁護者になる必要があります。
ChatGPT は、これに対応したようです。新しいセッションでは、システムに入ると安全ではないため、機密データや企業秘密を入力しないようユーザーに促すようになっています。
Samsung は、これを行うのは依然として困難であり、ChatGPT プロンプトを使用する際にはより多くの人が注意を払い、注意を払う必要があることを発見しました。
新しい ChatGPT プラグインを使用して買い物をするなどのことは無害に思えるかもしれませんが、インターネット上で食べたものの安全ではないデジタル記録を本当に望んでいますか? すでに過ぎ去ったものはすべて?
こうしたプライバシー上の懸念が解決されるまで、私たち国民はペースを緩め、新しい AI テクノロジーに対する熱狂に巻き込まれすぎないようにする必要があります。
言うまでもありませんが、ユーザーが取引の終了を約束した場合、企業は不適切なデータの使用と保護の慣行に対して責任を負わなければなりません。
したがって、企業の大小を問わず、個人が自分のデータがどのように使用され、どこに行くのか、またデータを持っている可能性のある人が誰にでも明確に理解できるように、透明でわかりやすいプロトコルを推進する必要があります。このデータへのアクセス、第三者機関。
さらに、ビジネス リーダーは、データ主体の権利 (DSR) を行使するための明確な方法をユーザーに提供し、データの処理と保存に関する倫理ガイドラインを遵守するように従業員を教育する必要があります。
デフォルトの権限のほとんどは依然として規制上のグレーゾーンにあり、状況に応じてオプトアウトまたはオプトインする必要性が明確に示されていないため、その目標にはまだ程遠いです。ユーザーと会社の所在地。
透明性、明確性、説明責任は、データ プライバシーに関するすべての組織の考慮事項の最優先事項である必要があります。
ChatGPT の台頭により、データ プライバシーを警戒する新時代が到来しました。この時代では、組織も個人も同様に積極的にデータが適切に扱われ、侵害や悪用を避ける必要があります。
ChatGPT は、歴史上のどの企業よりも速い速度でより多くのデータを収集しており、セキュリティに問題が発生した場合、個人データのプライバシーに対する影響は比類のないものになります。
企業が潜在的な問題を確実に認識したい場合は、より戦略的にデータを保護し、インターネットに対する消費者の信頼を構築する必要があります。そうしないと、より良い共有デジタル未来が重大な危険にさらされることになります。
元のリンク: https://hackernoon.com/the-evolution-of-ai-and-data-privacy-how-chatgpt-is-shaping-the-future-of -digital-communication
Liu Tao、51CTOコミュニティ編集者は、大規模な中央企業のシステムのオンライン検出と制御を担当しています。 。
以上がChatGPT の過去と未来: デジタル通信における人工知能とデータ プライバシーの進化の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。