ホームページ > 記事 > テクノロジー周辺機器 > ChatGPTをチェックしてください!
プランナー | 益州
ChatGPT は今でも人気があり、多くの著名人が続々と愛用しています!ビル・ゲイツ、マイクロソフトのナデラ、テスラのマスク、ロビン・リー、周宏儀、中国の張朝陽、そしてテクノロジー界には属していない作家の鄭源潔さえも、「作家は将来失業するかもしれない」と信じ始めている「ChatGPTの登場のせいで。」はい。別の例を挙げると、元Googleのボスであるブリン氏は警戒し、元Meituan共同創設者の王恵文氏も再び名乗り出て、AI人材を募集し、中国版OpenAIを設立するためのヒーロー投稿を投稿した。
ChatGPT や DALL-E に代表される生成 AI は、豊富な詳細、アイデア、知識が詰まったテキストを一連の見事なスタイルで書き、ゴージャスな回答とアートワークを吐き出します。結果として得られるアーティファクトは、機械から作られたものであるとは信じがたいほど、非常に多様かつユニークです。
一部の観察者は、これらの新しい AI がついにチューリング テストの閾値を超えたと信じているほどです。ある人の言葉では、閾値をわずかに超えたどころか、粉々に吹き飛ばされた。このAI技術は非常に優れており、「すでに別のグループが失業の危機に瀕している」という。
しかし、1 か月以上の発酵を経て、AI に対する人々の不思議な感覚は薄れ、生成 AI の「元の星輪」も徐々に消えつつあります。たとえば、一部の観察者は正しい方法で質問をしましたが、ChatGpt は愚かな、あるいは間違ったことを「吐き出し」ました。
別の例として、小学校の美術の授業で人気の昔ながらのロジックボムを使用して、夜の太陽や吹雪の中のシロクマの写真を撮る人もいます。他の人は、AI のコンテキスト認識の限界をにらみながら、見知らぬ質問をしました。
この記事では、生成 AI の「10 の罪」をまとめます。これらの非難は酸っぱいブドウのように聞こえるかもしれませんが(私も AI の力に嫉妬しています。機械に乗っ取られたら、私は仕事を失います、笑~)、中傷するのではなく、思い出させることを目的としています。
DALL-E や ChatGPT などの生成 AI モデルが作成されるとき、それらは実際には次のトレーニング セットから作成されるだけです。数千の例から新しいパターンを作成します。その結果、さまざまな情報源から切り取って貼り付けた合成が行われますが、これを人間が行う場合、それは盗作としても知られています。
もちろん、人間も模倣を通じて学習しますが、場合によっては、AI の「奪い方」「借り方」があまりにも明白で、小学校の先生は「できない」と怒っていました。彼女の生徒には教えないでください。この AI 生成コンテンツは、多かれ少なかれそのまま表示される大量のテキストで構成されています。ただし、場合によっては、ドーピングや合成が十分に行われているため、大学教授のチームですらソースを検出するのが難しい場合があります。いずれにせよ、欠けているのは独自性です。これらの機械は輝いていましたが、真に新しいものを生み出すことはできませんでした。
盗作は主に学校の問題ですが、著作権法は市場にも適用されます。ある人が他の人の仕事から搾り取られると、裁判に持ち込まれ、数百万ドルの罰金が課される可能性があります。しかし、AI はどうでしょうか?同じルールがそれらにも適用されますか?
著作権法は複雑なテーマであり、生成 AI の法的アイデンティティの問題は解決までに何年もかかります。しかし、予測するのは難しくないことが 1 つあります。人工知能が従業員を置き換えるのに十分な能力を備えた場合、置き換えられた従業員は間違いなく「自宅での自由時間」を使って訴訟を起こすでしょう。
生成 AI によって引き起こされる法的問題は盗作と著作権だけではありません。弁護士たちはすでに訴訟における新たな倫理問題を策定している。たとえば、描画プログラムを作成する企業は、人間のユーザーの描画行動に関するデータを収集し、そのデータを AI トレーニングに使用できるようにすべきでしょうか?これに基づいて、使用された創造的な労働に対して報酬を受け取るべきでしょうか?現在の AI の成功は主にデータへのアクセスに由来しています。では、データを生成する一般の人々がパイの一部を望んでいるときに、このようなことが起こり得るでしょうか?公平性とは何ですか?合法とは何ですか?
AI は、人間が何年もかけて開発する種類の知能を模倣することに特に優れています。学者が 17 世紀の無名の芸術家を紹介したり、ほとんど忘れられていたルネッサンスの音構造で新しい音楽を作曲したりしたとき、驚かされるのは十分に理由があります。これほど深い知識を身につけるには、何年もの学習が必要であることを私たちは知っています。 AI がわずか数か月のトレーニングでこれらと同じことを実行すると、結果は信じられないほど正確で正しいものになる可能性がありますが、何かが欠けています。
人工知能は、人間の創造性の興味深く予測不可能な側面だけを模倣しているように見えますが、「形式は似ていますが、精神は似ていない」ため、実際にはこれを行うことはできません。同時に、予測不可能性が創造的なイノベーションを促進します。ファッション業界とエンターテインメント業界は変化に夢中になっているだけでなく、「変化」によって定義されています。
実際、人工知能と人間の知能にはそれぞれ独自の専門分野があります。例: 訓練されたマシンが、何十億もの記録が詰まったデジタル ボックスから正しい古い領収書を見つけることができれば、アフラ ベーン (文筆で有名な 17 世紀初の作家) のような人物についても学ぶことができます。 (生計を立てている)女性は知っていました。マヤの象形文字の意味を解読するために機械が作られたとさえ考えられます。
知能に関して言えば、人工知能は本質的に機械的でルールベースです。 AI が一連のトレーニング データを通過すると、実際には変更されないモデルが作成されます。エンジニアやデータサイエンティストの中には、時間をかけて徐々に AI モデルを再トレーニングし、機械が適応することを学習できるようにすることを構想している人もいます。
しかし、ほとんどの場合、アイデアは、固定形式で何らかの知識をエンコードする複雑なニューロンのセットを作成することです。この「不変性」には一定の役割があり、特定の業界に当てはまる場合があります。しかし、それは弱点でもあり、その危険性は、その認識が常に訓練データの「時代サイクル」にとどまることです。
生成 AI に依存しすぎて、モデルをトレーニングするための新しいマテリアルを作成できなくなったらどうなるのでしょうか?
人工知能のトレーニング データはどこかから取得する必要がありますが、何が起こっているのか必ずしもわからないニューラルネットワークでは何が現れるのか。 AI が学習データから個人情報を漏洩したらどうなるでしょうか?
さらに悪いことに、AI は非常に柔軟に設計されているため、AI をロックダウンすることははるかに困難です。リレーショナル データベースでは、個人情報を含む特定のテーブルへのアクセスを制限できます。ただし、AI は何十もの異なる方法でクエリを実行できます。攻撃者は、必要な機密データを取得するために、適切な質問を適切な方法で行う方法をすぐに学びます。
たとえば、攻撃者が資産の位置に注目していると仮定すると、AI を使用して緯度と経度を尋ねることもできます。賢い攻撃者は、数週間後にその場所で太陽が昇る正確な時刻を尋ねる可能性があります。良心的な AI は最善を尽くして答えを提供します。人工知能に個人データを保護するようにどのように教えるかも難しい問題です。
メインフレームの時代から、テクノロジー コミュニティは「ガベージ イン、ガベージ アウト」(GIGO) という概念を生み出してきました。 、GIGO としても知られています。コンピューターの問題の核心を一般の人々に見てもらいましょう。 AI に関する問題の多くは、トレーニング データが不十分であることに起因します。データセットが不正確または偏っている場合、結果はそれを反映します。
生成 AI のコア ハードウェアは理論的にはロジック駆動ですが、マシンを構築してトレーニングする人間はそうではありません。裁判前の意見や所属政党の偏見が AI モデルに導入されることが示されています。おそらく誰かが偏ったデータを使用してモデルを作成したのでしょう。おそらく、モデルが特定のホットな質問に答えないようにするために、ある種のトレーニング コーパスを追加したのでしょう。おそらく、彼らは固定された答えを入力し、それを検出するのが難しくなるかもしれません。
人工知能は確かに優れたツールですが、下心を持つ人々が AI を有害な信念の優れた媒介者にする方法が 10,000 通りあることも意味します。
これは、海外の住宅購入ローンの例です。この場合、潜在的なテナントを評価するために使用された AI システムは、法廷記録やその他のデータセットに依存していましたが、その多くには独自のバイアスがあり、組織的な人種差別、性差別、障害者差別が反映されており、エラーが発生しやすいことで知られていました。明らかに家賃を支払う能力がある人は、入居者審査アルゴリズムによって資格がないか、価値がないとみなされるため、住宅ローンを拒否されることがよくあります。これは営業マンからよく聞かれる答えでもあります。ビッグデータ/システム/AI がこれを促します。
気分を害された後の ChatGPT の行動
AI モデルは他にもたくさんのことを行うので、間違いを許すのは簡単です。ただ、人工知能は人間とは考え方が異なるため、多くのエラーを予測するのは困難です。
たとえば、テキストから画像への変換機能の多くのユーザーは、AI が数を数えるなどの単純な間違いを犯していることに気づきました。人間は小学校低学年で基本的な算数を学び、その後このスキルをさまざまな方法で使用します。 10 歳児にタコの絵を描くように依頼すると、その子はほぼ確実に、足が 8 本であることを確認します。現在のバージョンの人工知能は、数学の抽象的かつ状況に応じた使用に関して行き詰まる傾向があります。
モデル作成者がこの間違いに注意を払えば、これは簡単に変更できますが、他にも不明なエラーがあります。機械の知性は人間の知性とは異なるものとなるでしょう。つまり、機械の愚かさもまた異なるものになるでしょう。
私たち人間は、気づかないうちに AI の落とし穴に陥ってしまうことがあります。知識の盲点で、私たちはAIを信じてしまう傾向があります。 AI がヘンリー 8 世が妻を殺した王であると教えてくれたとしても、私たちはその歴史を知らないので、それを疑問に思うことはありません。私たちは人工知能が正しいと思い込みがちで、カンファレンスで聴衆としてカリスマ司会者が手を振っているのを見ると、「ステージ上の人の方が自分よりも知識がある」とデフォルトで信じてしまうのと同じです。
生成 AI のユーザーにとって最も厄介な問題は、AI がいつ誤動作するかを知ることです。 「機械は嘘をつかない」というのが私たちの合言葉ですが、実際にはそうではありません。機械は人間のように嘘をつくことはできませんが、機械が犯す間違いはより危険です。
彼らは、何が起こったのか誰も知らないうちに、完全に正確なデータの段落を書き上げ、その後、憶測や嘘にさえ発展する可能性があります。 AIは「真実と虚偽の混合」という芸術も行うことができる。しかし、違いは、中古車ディーラーやポーカー プレイヤーは、自分がいつ嘘をついているかを知っていることが多いということです。
デジタル コンテンツの無限の複製可能性により、希少性を中心に構築された多くの経済モデルが問題に陥っています。生成 AI は、これらのパターンをさらに打ち破るでしょう。生成型 AI は一部の作家やアーティストを失業させ、私たち全員が生活している経済ルールの多くをひっくり返します。
自分で答えようとするのではなく、生成 AI が自動的に答えてくれるようにしましょう。それは、興味深く、ユニークで、奇妙な答えを返すかもしれませんが、おそらく「曖昧さ」の境界線、つまり、善悪の境界にあり、魚でも鳥でもない、少し神秘的な答えを歩むことになるでしょう。
元のリンク: https://www.infoworld.com/article/3687211/10-reasons-to-worry-about-generative-ai.html
以上がChatGPTをチェックしてください!の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。