ホームページ >テクノロジー周辺機器 >AI >ChatGPTの不正行為が懸念を引き起こしている、OpenAI:独自の監査ツールを開発中
言語生成モデルの登場により、学校の宿題は役に立たなくなるのでしょうか?最近、ニューヨーク市の教育当局が公立学校で生徒によるChatGPTの使用を禁止すると発表し、物議を醸した。
言語モデルによって自動生成されるコンテンツは既存の作品を「参照」し、その出力スピードはほぼ無制限、人々の懸念はAI学会自体にも波及カンファレンスの 1 つである世界有数の機械学習 ICML も最近、「予期せぬ結果」を避けるために、ChatGPT や他の同様のシステムによって生成されたコンテンツを含む論文の出版を禁止すると発表しました。
このような状況に備えて、ChatGPT の作成者である OpenAI は、AI によって自動的に生成されたテキストを人々が検出できるようにする「緩和策」の開発に熱心に取り組んでいることを発表しました。
「私たちは、現実世界のアプリケーションから学びたいと考えて、新しい研究のプレビュー テクノロジーとして ChatGPT を使用しています。これが開発であると信じています。」 「強力で安全な AI システムの重要な部分です。私たちはフィードバックと学んだ教訓から学び続けます」と同社の広報担当者は述べています。 「OpenAI は、AI が生成したテキストを使用する際の透明性を常に求めてきました。当社の利用規約では、対象となる人々のために当社の API とクリエイティブ ツールを使用する際には、ユーザーが第一に責任を負う必要があります。私たちは教育者と協力して効果的なソリューションを開発することを楽しみにしています。教師と生徒が同様に AI から利益を得る方法を見つけるのを支援します。」
人間が生成したコンテンツと機械が生成したコンテンツを区別できるアルゴリズムが出現すれば、学界で生成モデルが使用される可能性があります。変化。学校は人工知能によって生成される論文をより効果的に制限できるようになり、人々の態度が変わり、これらのツールが生徒を助けることを期待するようになれば、おそらく私たちも徐々に支援のためのAIの使用を受け入れ、仕事や勉強の効率を向上させることができるでしょう。
さて、まだまだ道のりは長いようです。 AI が生成したテキストは、学会や学校が機械による作文不正行為を禁止するというニュースで印象的に見えるかもしれませんが、実際の人間の文章と比較すると、多くの場合、真の理解や論理が欠けていることを知っておく必要があります。
GPT-3 や ChatGPT などのツールは、驚くほど詳細な回答を提供して人々を驚かせますが、これはモデルが知識をエンコードできることを証明していると主張する冷静な専門家もいます。物事を正しく理解できないと、彼らが与える答えはしばしばとんでもないものになります。ポモナ大学の経済学教授ゲイリー・スミスは、だまされないようにと注意を促します。
Gary Smith 氏はコラムの中で、GPT-3 が効果的に推論して質問に答えることができない例をいくつか示しました。「GPT-3 を使用しようとすると、最初の反応はおそらく驚くべきものです。非常に賢い人と本当の会話をしているように見えましたが、さらに深く掘り下げてみると、GPT-3 は説得力のある方法で単語をつなぎ合わせることができますが、そうではないことがすぐにわかりました。 "
"fall という単語の後に down という単語が続く可能性があることを予測するには、これら 2 つの単語の意味を理解する必要はありません。統計レベルの計算だけで、AI は考えることができます。 「これらの単語はしばしば一緒に使われます。したがって、GPT-3 は完全に間違っているが恣意的なステートメントを簡単に作成することができます。」
2022 年 11 月に OpenAI 3 月には、より新しいモデルである ChatGPT がリリースされました。 GPT-3を改良しました。それにもかかわらず、既存のすべての言語モデルと同じ問題に依然として悩まされています。
かつて、AIによって生成されたテキストコンテンツはまだ「一見すると偽物」でしたが、ChatGPTの誕生以降、この種の差別はますます困難になりました。
教育の世界では、ChatGPT の議論は不正行為の可能性を中心に展開しています。 Google で「ChatGPT 作文」を検索すると、教育者、ジャーナリスト、学生が宿題や標準化された作文テストに ChatGPT を使用して試験を行っている例が多数見つかります。
ウォール ストリート ジャーナルのコラムニストは、合格する AP の英語論文を書くために ChatGPT を使用し、フォーブスの記者はそれを使用して 2 つの大学のエッセイを 20 分で完成させました。アリゾナ州立大学のダン・ギルモア教授は、ガーディアン紙とのインタビューで、学生にChatGPTの課題を与えてみたところ、AIが生成した論文も良い成績を取れる可能性があることが分かったと回想した。
現在、一部の開発者は ChatGPT で生成されたコンテンツの検出ツール「GPTZero」を作成しています。コンテンツを入力ボックスに貼り付けるだけで、分析結果を取得し、記事が ChatGPT によって書かれたのか手動で書かれたのかをすぐに検出します。
# ネットユーザーのコメント: 世界中の学生がこれを見て泣きました。
著者はプリンストン大学の学生、エドワード ティアンで、休暇の一部を使って GPTZero を執筆しました。
#まず、「New Yorker」からのレポート コンテンツを例として、検出プロセスを見てみましょう (100%必ず人間によって書かれています):
テスト用に ChatGPT によって生成された別のコンテンツを見てください:
GPTZero アプリケーションの原理は、いくつかのテキスト属性を利用した分析です。 1 つ目はモデルに対するテキストのランダム性、つまり言語モデルがテキストを「好む」度合いである困惑性であり、次に機械で書かれたテキストによって表示される困惑性の程度であるバースト性があります。人間が書いたテキストには当てはまらない、より均一かつ一定の期間。
#GPTZero: 「学生の皆さん、ごめんなさい! 教授の皆さん、どういたしまして!」
#によると、The Guardian は、OpenAI が現在、読者が AI テキスト選択の隠れたパターンを発見できるように、ChatGPT 出力結果の「ウォーターマーク」をカウントする機能を開発中であると報告しました。OpenAI客員研究員のスコット・アーロンソン氏は、テキサス大学での講演で、同社が「出力に統計的に透かしを入れる」ことで不正行為に対抗するシステムに取り組んでいると述べた。アーロンソン氏は、この技術は、ChatGPTが選択した特定の単語の選択を読者には気付かれないように微妙に調整することで機能するが、機械生成されたテキストの兆候を探している人には統計的に検出できるだろうと予測した。
「私たちは実際に透かし入れソリューションの実用的なプロトタイプを持っています」とアーロンソン氏は付け加えた。 「パフォーマンスは良好のようです。経験則として、信号を受け取るには数百単語で十分のようです。はい、このテキストは GPT からのものです。」
懸念はあるものの、 , ChatGPT関連のアプリケーションも急速に普及しています。多くのシナリオでは、人々は単純なクエリを理解できないチャットボットと会話したくありません。何でも発言できる ChatGPT がこの問題を解決できます。トロントを拠点とする Ada は OpenAI と提携して、ChatGPT の背後にある大規模モデルである GPT-3.5 を顧客サービス チャットボットに適用し、45 億件の顧客サービス インタラクションを完了しました。
The Information によると、Microsoft は OpenAI と独占的ライセンス契約も締結しており、この技術を Bing 検索エンジンに統合する予定です。
ChatGPT は、現実の人々をシミュレートする道を加速しており、偽造品との戦いは今後も続きます。
以上がChatGPTの不正行為が懸念を引き起こしている、OpenAI:独自の監査ツールを開発中の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。