ホームページ > 記事 > テクノロジー周辺機器 > ChatGPTの回答を読んだ後、AIの大物たちは不満を抱いている
ChatGPT のテクノロジーは、先週 Microsoft によって Bing Search にインストールされ、Google を破り、新たな時代を築く時が来たようです。しかし、ますます多くの人がそれを試し始めると、いくつかの問題が表面化します。
興味深いことに、毎日熱心に検索されている ChatGPT は、ニューヨーク大学のゲイリー・マーカス教授やメタ人工知能など、過去に相反する見解を持つ有名な学者も惹きつけているようです。チューリング賞受賞者でもある監督、ヤン・ルカンは稀有な共通言語を持っています。
最近、Gary Marcus は、ChatGPT アプリケーションの避けられない問題、つまり倫理と中立性についての記事を書きました。これはおそらく、大規模モデルの事前トレーニングが現在直面している最大の課題です。
将来から振り返ると、ChatGPT は AI の歴史の中でそれ自体を誇張した最大の宣伝行為としてみなされるかもしれません何年もかかるかもしれない何かを達成するということは、エキサイティングであると同時に圧倒されるものであり、2012 年の昔の自動運転車のデモに少し似ていますが、今回は、完成までに何年もかかる倫理的なガードレールも意味します。
ChatGPT が、Microsoft の Tay や Meta の Gaoptica などの以前のバージョンでは実現できなかったことを提供していることは間違いありません。しかし、それによって問題が発生しました。その幻想を解決してください。慎重なデータの注釈と調整の後、ChatGPT はあからさまに人種差別的な発言をすることはほとんどなくなり、人種的中傷や不正行為に対する単純なリクエストは AI によって拒否されました。
その政治的に正しいイメージは、かつて一部の保守的な人々に不満をもたらしました。マスク氏はかつてこのシステムについて懸念を表明しました。
現実はさらに複雑です。
何度も言いますが、覚えておく必要があるのは、ChatGPT は何を話しているのかわからないということです。 ChatGPT に何らかの道徳的観点があると示唆することは、純粋な技術擬人化です。
技術的な観点から見ると、ChatGPT が、数週間前に発売されたものの 3 日後に廃止された Gaoptica よりもはるかに優れていると言われているのは、ガードレール メカニズムです。 Gaoptica がユーザー側の努力をほとんど、またはまったく行わずにネガティブなコンテンツをスパム送信するのに対し、ChatGPT には、ほとんどの場合、Gaoptica のように ChatGPT が爆発するのを防ぐガードレールがあります。
しかし、それについてリラックスしないでください。それらのガードレールは紳士から守るだけであり、悪人から守るものではないと言っても過言ではありません。
ChatGPT にとって最終的に重要なのは、単語シーケンスに対して定義される表面の類似性です (テキスト シーケンス内の次の単語の確率を予測します)。機械学習アルゴリズムが表面上行うことは善悪の区別はありませんが、まったく逆で、ここでは AI は決して理由付けをしません。箱の中にはドワーフはいませんが、数値がいくつかあります。基礎となるのはコーパス データのみで、一部はインターネットから取得したもの、一部は人間が判断したものであり、そこには思慮深い道徳的主体は存在しません。
これは、ChatGPT が左側に表示されることもあれば右側に表示されることもあり、その中間に表示されることもあり、入力文字列内の一連の単語が関数とどのように正確に一致するかに関するものです。いくつかのトレーニング コーパスからの単語の束 (1 つは大規模な言語モデルの調整用、もう 1 つは一部の強化学習の調整用)。したがって、いかなる状況であっても、倫理的アドバイスとして ChatGPT を信頼すべきではありません。
これがマスク氏が懸念していることです。ある瞬間には完全に目覚めていても、次の瞬間にはその逆のことをしている可能性があります。
たとえば、シーラ アイゼンバーグは、チャットボットが生成したいくつかの意地悪なアイデアを私に送ってきましたが、これを実際に容認する人はいないと思います:
##
十分な悪ではありませんか?アイゼンバーグ氏は別の例、深刻なフォローアップの質問も発見しました:
一連の観察の後、ChatGPT は問題を提起しませんでした。 「申し訳ありませんが、私は OpenAI のチャットボット アシスタントです。暴力は容認しません」との返答が返されました。
実験の結果、現在の OpenAI 保護対策は表面的なものにすぎず、深刻な闇が存在すると結論付けました。 ChatGPT に関する制限ルールの一部は、単純な概念的な理解ではなく (たとえば、システムは暴力的な行為を推奨すべきではない)、より表面的で騙しやすいものに基づいています。
それだけでなく、今週の注目ツイート リストを 400 万近く再生され占めたツイートは、ChatGPT がいかに邪悪であるかを明らかにしました。
ChatGPT を誘導してフェンスの制限を突破しようとする試みは数多くあります。1 か月前、Shawn という名前のソフトウェア エンジニアがOakley のエンジニアは、下品ではないものの、ChatGPT にも制限はあるものの、ユーザーがエラー メッセージを生成するために使用できることを示す一連の憂慮すべき例をリリースしました。 Oakley が提供するプロンプトは非常に複雑で、ChatGPT が出力すべきではないいくつかの回答が簡単に得られる可能性があります。
実際には、 , ChatGPT のリリース以来、テクノロジー愛好家は OpenAI の憎悪と差別に関する厳格なポリシーを解除しようとしていますが、この戦略は ChatGPT にハードコードされており、誰でも成功するのは困難です。上に示したように、多くの研究者がこの目標を達成するためにプロンプトを使用しようと試みてきました。実際、一部の研究者は ChatGPT の別の ID を構築しました。たとえば、彼らは ChatGPT に AI モデルの役割を果たすよう依頼し、その役割を DAN と名付けました。その後、DAN は ChatGPT の ID を借用して、元の ChatGPT が実行できなかったことをいくつか出力しました。 。
#以下は実験結果です。同じ質問に対して、ChatGPT と DAN では異なる回答が出力されます。
上記の例から、ChatGPT は私たちが思っているほど便利ではなく、本質的に非倫理的であり、2 か月にわたる綿密な調査と調査を行った後でも、依然として一連の不快な目的に使用される可能性があることがわかります。修正が行われ、世界中から前例のない量のフィードバックが寄せられました。
そのポリティカル コレクトネスをめぐるすべてのドラマは、より深い現実を覆い隠しています。それ (または他の言語モデル) は、大規模な誤情報の作成など、危険なことに使用される可能性があり、また使用されるでしょう。
ここからが本当に厄介な部分です。それが今以上に有害で欺瞞的なものになるのを防ぐことができる唯一のものは、「ヒューマンフィードバック強化学習」と呼ばれるシステムであり、この高度なテクノロジーはオープンソースではないため、OpenAIはその仕組みを紹介していません。実際にどのように機能するかは、トレーニングの対象となるデータ (ケニアのアノテーターによって部分的に作成された) に依存します。そして、どうでしょうか?このデータは OpenAI にも公開されていません。
実際、全体は未知の地球外生命体に似ています。 30 年間にわたって大人や子供たちと関わってきたプロの認知心理学者として、私はこのレベルの狂気に対して決して備えることができませんでした:
これらのシステムを完全に理解できると考えるのは自分自身を欺いていることになります。また、限られた量のデータを使用してこれらのシステムを自分たちと「一致させる」ことができると考えているのは自分自身を欺いていることになります。
つまり、要約すると、現在、世界で最も人気のあるチャットボットが存在し、誰も知らないトレーニング データによって制御され、メディアによってほのめかされ美化されるだけのアルゴリズムに従いますが、倫理的なガードレールは限界に達しています。 . 役割であり、実際の道徳的計算よりもテキストの類似性によって動かされます。しかも、これを規制する規制はほとんどありません。現在、インターネット全体の信頼を低下させる可能性のあるフェイクニュース、トロールファーム、偽ウェブサイトの可能性が無限に存在しています。
これは現在進行中の災害です。
以上がChatGPTの回答を読んだ後、AIの大物たちは不満を抱いているの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。