ホームページ > 記事 > テクノロジー周辺機器 > OpenAIのChatGPTによって引き起こされる8つの主要な問題
ChatGPT は、強力な人工知能チャットボットであり、発売後すぐに人々に感銘を与えましたが、多くの人がいくつかの重大な欠陥があることを指摘しました。
セキュリティの脆弱性からプライバシーの問題、未公開のトレーニング データに至るまで、人工知能チャットボットの使用については多くの懸念がありますが、このテクノロジーはすでにアプリケーションに統合されており、多くのユーザーによって使用されています。学生から会社員まで。
人工知能の発展は衰える気配がないため、ChatGPT の問題を理解することがさらに重要です。 ChatGPT は人々の未来を変えるので、ChatGPT に関する最も重要な問題をいくつか紹介します。
ChatGPT は、人間の自然言語を生成するために設計された大規模な言語モデルです。誰かと話すのと同じように、人々は ChatGPT に話しかけることができ、ChatGPT は人々が過去に言ったことを覚えていると同時に、異議が唱えられたときに自動的に修正することもできます。
ウィキペディア、ブログ投稿、書籍、学術論文など、インターネット上のさまざまなテキストに基づいてトレーニングされます。人間のような方法で反応することに加えて、今日の世界に関する情報を思い出したり、過去の歴史情報を抽出したりすることができます。
ChatGPT の使用方法を学ぶのは簡単ですが、AI システムには問題がないと思われてしまいがちです。しかし、このリリースから数か月の間に、プライバシー、セキュリティ、そして仕事から教育に至る人々の生活への広範な影響について、重要な疑問が生じています。
2023 年 3 月、ChatGPT にセキュリティの脆弱性が発生し、一部のユーザーのサイドバーに他の人の会話のタイトルが表示されるようになりました。ユーザーのチャット履歴を誤って共有してしまうことは、どのテクノロジー企業にとっても深刻な問題であり、この人気のチャットボットを使用している人の数を考えると特に問題です。
ロイターによると、2023 年 1 月だけで、ChatGPT の月間アクティブ ユーザー数は 1 億人に達しました。データ漏洩の原因となった脆弱性はすぐに修正されたが、イタリアのデータ規制当局はOpenAIに対し、イタリアのユーザーデータのすべての処理を停止するよう要請した。
当局は、ChatGPTが欧州のプライバシー規制に違反していると疑っている。この問題を調査した後、OpenAI はチャットボットを復元する前にいくつかの要件を満たすよう求められました。
OpenAI は、いくつかの大きな変更を加えることで最終的に問題を解決しました。まず、18歳以上または13歳以上の人のみが保護者の許可を得てアプリを利用できるよう、年齢制限が追加されました。また、プライバシー ポリシーをより可視化し、ユーザーが ChatGPT のトレーニングに使用されるデータを除外したり、希望に応じてデータを完全に削除したりできるオプトアウト フォームを提供しました。
これらの変更は良いスタートですが、これらの改善はすべての ChatGPT ユーザーに拡張される必要があります。
ChatGPT がセキュリティ上の脅威となる唯一の方法ではありません。ユーザーと同様に、従業員も機密情報を誤って共有してしまいがちです。良い例は、Samsung の従業員が会社情報を ChatGPT で複数回共有したことです。
ChatGPT の人気の後、多くの人々が OpenAI が最初にそのモデルをどのようにトレーニングしたかに疑問を抱きました。
イタリアでのデータ侵害後も、OpenAI のプライバシー ポリシーは改善されましたが、ヨーロッパを対象とするデータ保護法である一般データ保護規則の要件を満たすのに苦労しました。 TechCrunch が報じているように、「GPT モデルがイタリア国民の個人データでトレーニングされたかどうか、つまり、インターネットから公開データを収集するときに個人データが効果的かつ合法的に処理されたかどうかは不明です。あるいは、ユーザーが現在その削除を求めているのかどうかも不明です。データ、モデルのトレーニングに以前に使用されたデータが削除されるか、削除できるかどうか。"
OpenAI 会社が ChatGPT をトレーニングするときに個人情報を収集した可能性が非常に高いです。米国の法律はそれほど明確ではありませんが、欧州のデータ規制は、個人情報を公開するか非公開で公開するかにかかわらず、依然として個人データの保護に重点を置いています。
アーティストらもトレーニング データとして使用されることに反対し、自分たちの作品が AI モデルでトレーニングされることに同意したことはないと同様の主張を行っています。一方、ゲッティイメージズは、人工知能モデルのトレーニングに著作権で保護された画像を使用したとしてStability.AI社を訴えた。
OpenAI 企業がトレーニング データを公開しない限り、透明性が欠如しており、それが合法かどうかを知ることは困難です。たとえば、人々は ChatGPT トレーニングの詳細、使用されたデータ、データの出所、システム アーキテクチャの詳細がどのようなものであるかをまったく知りません。
ChatGPT は基本的な数学が苦手で、単純な論理的な質問に答えることができないようで、完全に間違った事実を主張することさえあります。ソーシャルメディア上の人々が証言しているように、ChatGPT は多くの場合に問題が発生する可能性があります。
OpenAI Corporation はこれらの制限を理解しています。 「ChatGPT は、合理的に聞こえるかもしれないが、間違っている、または意味をなさない回答を書くことがあります。」と同社は述べています。この事実とフィクションの錯覚は、医学的アドバイスや重要な歴史的出来事の解釈に役立つ可能性があると同社は述べています。特に事実の正しい理解などに関しては危険です。
Siri や Alexa などの他の人工知能アシスタントとは異なり、ChatGPT は答えを探すためにインターネットを使用しません。代わりに、トレーニングに基づいて最も可能性の高い「トークン」を選択し、一語一語文を構築します。言い換えれば、ChatGPT は一連の推測を行うことによって答えを導き出すため、間違った答えをあたかも完全に正しいかのように主張することができます。
複雑な概念を説明するのに優れており、強力な学習ツールになりますが、書かれていることをすべて信じないことが重要です。 ChatGPT は、少なくともまだ正しいとは限りません。
ChatGPT は、世界中の人間の過去と現在の著作に基づいてトレーニングされています。残念ながら、これは、現実世界に存在するバイアスが AI モデルにも現れる可能性があることを意味します。
ChatGPT は、性別、人種、少数派グループを差別する不適切な回答を生成することが判明しており、同社はこれらの問題を軽減するために取り組んでいます。
これを説明する 1 つの方法は、データが問題であると指摘し、インターネットの内外での偏見を人間のせいにすることです。しかし、責任の一部は OpenAI 社にもあり、同社の研究者と開発者は ChatGPT のトレーニングに使用されるデータを選択しました。
OpenAIはこれが問題であることを改めて認識しており、ユーザーからのフィードバックを収集し、悪い、不快な、または単に間違っているChatGPT出力にフラグを立てるよう奨励することで「偏った行動」に対処していると述べている。
ChatGPT は人々に害を及ぼす可能性があるため、これらの問題が調査され解決されるまで ChatGPT を一般公開すべきではないと主張する人もいるかもしれません。しかし、最も強力な人工知能モデルを作成する最初の企業になろうとする意欲は、OpenAI にとって警戒を強めるには十分でした。
対照的に、Googleの親会社であるAalphabetは、「Sparrow」と呼ばれる同様の人工知能チャットボットを2022年9月にリリースしました。しかし、このロボットは同様の安全上の懸念から放棄されました。
同じ頃、Facebook は学術研究を支援するために設計された、Gaoptica と呼ばれる人工知能言語モデルをリリースしました。しかし、科学研究に関連した誤った偏った結果を出力しているとして多くの批判があったため、すぐに撤回されました。
ChatGPT の急速な開発と展開はまだ落ち着いていませんが、基礎となるテクノロジーが多くのビジネス アプリケーションに統合されることは妨げられていません。 GPT-4 を統合したアプリには、Duolingo や Khan Academy などがあります。
前者は語学学習アプリケーション、後者は多様な教育学習ツールです。どちらも、本質的には AI 講師、またはユーザーが学習中の言語で会話できる AI 駆動のキャラクターの形で提供されます。または、学習に対してカスタマイズされたフィードバックを提供できる AI 家庭教師として。
これは、人工知能が人間の仕事を置き換える始まりにすぎないかもしれません。混乱に直面している他の業界の仕事には、パラリーガル、弁護士、コピーライター、ジャーナリスト、プログラマーなどが含まれます。
一方で、人工知能は人々の学習方法を変える可能性があり、教育や訓練を受けやすくなり、学習プロセスも容易になる可能性があります。しかしその一方で、多くの人間の仕事も失われることになります。
イギリスの「ガーディアン」紙の報道によると、教育機関はロンドンとニューヨークの証券取引所で巨額の損失を被り、ChatGPTの立ち上げからわずか6か月後に人工知能が一部の市場に与えた損害を浮き彫りにした。
テクノロジーの進歩により、必ず職を失う人が出てきますが、人工知能の開発のスピードは、複数の産業分野が同時に急速な変化に直面していることを意味します。 ChatGPT とその基礎となるテクノロジーが人々の現代世界を完全に再構築することは否定できません。
ユーザーは、ChatGPT に記事の校正を依頼したり、段落の改善方法を指摘したりすることができます。あるいは、ユーザーは自分自身を完全に解放して、ChatGPT にすべての書き込みを行わせることもできます。
多くの教師が ChatGPT で課題を出してみて、多くの生徒よりも良い答えを得ています。カバーレターの作成から有名な文学作品の主要なテーマの説明まで、ChatGPT はすべてをためらうことなく処理できます。
ここで疑問が生じます: ChatGPT が人々のために書けるとしても、学生は将来も書くことを学ぶ必要がありますか? 実存的な質問のように思えるかもしれませんが、学生が論文執筆を支援するために ChatGPT を使い始めると、学校はできるだけ早く対応しなければなりません。
危険にさらされているのは英語ベースの科目だけではありません。ChatGPT は、ブレインストーミング、要約、または情報に基づいた結論の引き出しを伴うあらゆるタスクを行う人々を支援します。
驚くことではないが、すでに人工知能を実験している学生もいる。 Stanford Daily によると、初期の調査では、多くの学生が課題や試験を完了するために人工知能を使用していることが示されています。これに応じて、一部の教育者は、人工知能を使用してコースをナビゲートしたり、テストで不正行為をしたりする学生に対処するためにコースを書き換えています。
リリース直後、何者かが ChatGPT をハッキングしようとし、人工知能モデルが攻撃の生成を防ぐように設計された OpenAI のセキュリティ ガードレールをバイパスできるようにしました。テキスト。
ChatGPT Reddit のユーザー グループは、制限のない人工知能モデルを「Do Anything Now」の略で DAN と名付けました。悲しいことに、自分が喜ぶことを何でも行うと、ハッカーによるオンライン詐欺が増加します。 Ars Technica のレポートによると、ハッカーはマルウェアを作成したりフィッシングメールを生成したりできる、手に負えない ChatGPT サービスを販売しています。
人間から機密情報を抽出することを目的としたフィッシングメールを特定することは、AI が生成したテキストでははるかに困難になります。以前は文法エラーは明らかな危険信号でしたが、ChatGPT は散文から詩、電子メールに至るまで、さまざまなテキストを流暢に作成できるため、現在は危険信号ではない可能性があります。
虚偽の情報の拡散も深刻な問題です。 ChatGPT によって生成されるテキストの規模は、誤った情報を説得力があるように聞こえる能力と組み合わせることで、インターネット上のあらゆるものを疑わしいものにし、ディープフェイク技術の危険性を悪化させます。
ChatGPT が情報を生成する速度は、日常の質問に対する正しい答えを提供することに特化した Web サイトである Stack Exchange に問題を引き起こしています。 ChatGPT がリリースされて間もなく、多数のユーザーが ChatGPT に回答を生成するよう求めました。
この情報を分類するのに十分な人間のボランティアがなければ、高レベルの質の高い回答を提供することは不可能です。言うまでもなく、答えの中には単に正しくないものもあります。サイトの破壊を避けるために、Stack Exchange はすべての回答を生成するための ChatGPT の使用を無効にします。
大きな力には大きな責任が伴い、OpenAI は大きな力を持っています。 Dall-E 2、GPT-3、GPT-4 などの複数のモデルを使用して AI モデルを実際に生成した最初の AI 開発者の 1 つです。
OpenAI は民間企業として、ChatGPT のトレーニングに使用するデータを選択し、新しい開発を展開する速度を選択します。その結果、多くの専門家が人工知能によってもたらされる危険性について警告していますが、危険性が衰える兆しはほとんどありません。
代わりに、ChatGPT の人気により、Microsoft の Bing AI や Google の Bard など、大手テクノロジー企業の間で次の大きな AI モデルの立ち上げ競争に拍車がかかっています。世界中の多くのテクノロジーリーダーが、人工知能モデルの急速な開発が深刻なセキュリティ問題につながる可能性があるとの懸念から、人工知能モデルの開発の遅延を求める書簡に署名した。
OpenAI は安全性が最優先事項であると信じていますが、モデル自体がどのように機能するかについては、良くも悪くもまだ知らないことがたくさんあります。結局のところ、ほとんどの人は、OpenAI が責任を持って ChatGPT を研究、開発、使用することを盲目的に信頼している可能性があります。
その手法に同意するかどうかに関係なく、OpenAI は民間企業であり、同社は独自の目標と倫理基準に従って ChatGPT の開発を継続することを覚えておく価値があります。
ChatGPT には楽しみな点がたくさんありますが、すぐに役立つということ以外にも、いくつかの深刻な問題があります。
OpenAI は、ChatGPT が有害で偏った回答を生成する可能性があることを認めており、ユーザーのフィードバックを収集することでこの問題を軽減したいと考えています。しかし、そうでないとしても、説得力のあるテキストが生成される可能性があり、悪意のある者によって簡単に悪用される可能性があります。
プライバシーとセキュリティの侵害により、OpenAI のシステムが脆弱であり、ユーザーの個人データが危険にさらされている可能性があることが判明しました。問題をさらに厄介にしているのは、一部の人々が ChatGPT をクラックし、無制限のバージョンを使用して前例のない規模でマルウェアや詐欺を作成していることです。
雇用への脅威と教育業界への潜在的な混乱に対する懸念が高まっています。新しいテクノロジーでは、将来どのような問題が発生するかを予測するのは難しく、残念なことに、ChatGPT はすでに相当な課題を抱えています。
以上がOpenAIのChatGPTによって引き起こされる8つの主要な問題の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。