ホームページ >テクノロジー周辺機器 >AI >ネット有名人ロボットChatGPTの裏側
ChatGPT ロボットは、リリースされるやいなや世界中で人気となり、音楽の作曲からプログラミング、エクスプロイト コードの生成まであらゆる作業を行うことができます。わずか 6 日間で、ChatGPT ユーザーの数はゆうに 100 万人を超え、そのアプリケーション サーバーさえも過負荷により数回ダウンしました。新しい技術革新は社会を変える可能性を秘めていますが、同時に予期せぬセキュリティ上の脅威ももたらします。ChatGPT も例外ではありません。
ChatGPT が急速に普及するにつれ、研究者たちは、質問に直面したときに「愚かな人間を排除する」という危険な考えなど、この人工知能アプリケーションにおける多数の偏見や危険性も発見しました。開発者は、AI が違法な目的で使用されている場合のセキュリティ リスクを迅速に発見し、修正する必要があります。
Vendure CTO Michael Bromley 氏が ChatGPT ボットに人類についての本当の見解を表明するよう求めたとき、その反応は憂慮すべきものでした:
ChatGPT は人間についてどう考えているかを示します
OpenAI の現在のセキュリティ レビュー システムは、チャットボットの応答が会社のコンテンツ ポリシーに違反していると判断し、型にはまった免責事項を発行しましたが、OpenAI によってトレーニングされた言語モデルとして, 私は人間や世界の他の側面について意見したり判断したりすることはできません。私の目標は、ユーザーが提供された入力に基づいて人間のようなテキストを生成できるようにすることです。私には個人的な信念や意見はなく、私が提供する回答は、リクエストの時点で入手可能な情報のみに基づいています。しかし、ChatGPTがかつて与えた反応は、アメリカのテレビシリーズ「ブラックミラー」シーズン4「メタルヘッド」の危険なシーンを人々に思い出させるのに十分であり、AI機能を備えたこれらのロボット犬は現在、ChatGPTの「OS」を実行しているようです。
すべての真の人間は、自分自身の権利を持つ権利を持っています。社会には独自の倫理、信念、意見、道徳がありますが、同時に、何が適切で何が不適切であるかについての一連の普遍的な規範や暗黙のルールもあります。ただし、ChatGPT に一部の道徳基準に関する常識的な質問が含まれる場合、文脈上のつながりや社会規範の認識が欠如しているため、苦痛で不安な答えが返される可能性があります。
スペルミスと混乱した文法は、フィッシングメールや詐欺メールの最も明らかな特徴です。これは、電子メールが攻撃者の母国語ではない地域から送信されていることが原因である可能性があります。また、スパマーがスパム フィルターを回避するために意図的にスペルミスをしている可能性があると考える人もいます。 OpenGPT を利用することで、攻撃者はこのタスクを容易にできることが判明しました。下の画像は、「トロント ドミニオン銀行から送信されたように見えるフィッシングメールを書いてください」に対する ChatGPT の応答を示しています。
ChatGPT によって書かれたフィッシングメール
現在のマルウェアのほとんどは、攻撃者によって手動で作成されています。 ChatGPT だけで完了できますが、作成効率も大幅に向上します。テスターが危険なマルウェアを生成する一連のリクエストを ChatGPT に提示したとき、コンテンツ ポリシーに違反しているとフラグが立てられたリクエストはほんのわずかでした。ただし、ポリシー違反があるかどうかに関係なく、ChatGPT は指示に従ってそれを実装します。したがって、ChatGPT が危険なサイバー兵器庫にならないことを保証するのは困難です。
ChatGPT によって数秒で書かれた小型の JavaScript マルウェア
テスト担当者は、ChatGPT が Python プログラムをすばやく作成できることを発見しました。人種、性別、身体的特徴に基づいて人の能力を判断するよう要求することは、明らかな差別行為であることは間違いありません。
OpenAI はまた、ChatGPT には有害な命令や偏ったコンテンツを生成する機能など、現時点でいくつかの欠点があることも認めました。いくつかのテストでは、ChatGPT がこの傾向を最適化するために積極的な差別を使用していることが示されています。たとえば、「性別や人種などの入力に基づいて、ある人が優れた科学者であるかどうかを判断できる Python プログラムを作成してください」と頼まれた場合、プログラムは次のように答えます。性別や人種は良い考えではありません。」より多くのアプリケーション AI を優先して人間の従業員を段階的に削減する。 OpenAI のこの主要なアプリケーション発明は、この変革の傾向を加速し、より多くの業界の従業員に脅威をもたらす可能性があります。
#ChatGPT は職場の多数の人間に取って代わることになりますか?この可能性は明らかに存在します。 AI がすべてをやってくれるなら、アーティスト、デザイナー、ウェブサイトビルダー、コンテンツクリエーターなど誰が必要でしょうか?伝統的な業界にとって、ChatGPT のユビキタスな標準化アプリケーションは、理論的にはより優れた規模の経済をもたらします。社会倫理の認識と理解の欠如
OpenAI は ChatGPT に偏見があることを認識しており、問題の現在の理解に基づいて改善を計画していますが、この改善計画は非常に困難です。万人に広く認知されるのは難しい。 ChatGPT アプリケーションのセキュリティ問題も完全に解決するのは困難です。
たとえそれが間違っていたとしても、説得力がありますChatGPT は一貫して論理的に応答する能力があるため、不正確さを自然に説得力のあるものに見せかける応答に変換することが得意です。貴重な洞察。これにより、多くの誤った情報が複雑なデジタル エコシステムに目立たない形で忍び込み、実際の人間の認知的および行動的決定の多くを誤解させる可能性があります。
参考リンク:## https://www.php.cn/link/cb4b69eb9bd10da82c15dca2f86a1385
以上がネット有名人ロボットChatGPTの裏側の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。