ホームページ > 記事 > テクノロジー周辺機器 > 生成 AI が懸念される 10 の理由
ChatGPT のような生成 AI モデルは非常に驚異的であるため、AI は人間と同じくらい優れているだけでなく、多くの場合より賢くなれると主張する人もいます。彼らは、まばゆいばかりのスタイルで素晴らしい芸術作品を発表します。詳細、アイデア、知識が詰まった文章を書くことができます。結果として得られるアーティファクトは非常に多様で、一見非常にユニークであるため、機械から作られたとは信じがたいほどです。私たちは、生成 AI ができることをすべて発見し始めたばかりです。
一部の観察者は、これらの新しい人工知能がついにチューリング テストの閾値を超えたと信じています。また、その閾値を簡単に超えることはなく、単に過大評価されているだけだと主張する人もいます。しかし、この傑作があまりにも素晴らしいので、すでに失業の危機に瀕している人々のグループがいます。
しかし、人々がそれに慣れてしまうと、生成型人工知能のオーラは薄れてしまいます。観察者のグループが正しい方法で質問し、これらの知的な機械に何か愚かなことや間違ったことを言わせるようにします。今ではこれがファッションになっています。夜の太陽や吹雪の中のシロクマの写真を要求するなど、小学校の美術の授業で人気のある古いロジックボムを使用するものもありました。常識としても知られる AI の状況認識の限界を示す奇妙な要求をした人もいます。興味のある人は、生成 AI が失敗するパターンを計算できます。
この記事では、生成人工知能の 10 の欠点または落とし穴を提案します。この Qing Neng は、少し酸っぱいブドウのように読めるかもしれません。なぜなら、機械に支配されることを許されたら、彼は職を失うからです。私は人間チームをサポートする小さな人間であると言えるかもしれませんが、人間が機械との戦いで英雄的な行為を示すことができることを願っています。それでも、私たち全員が少しは心配するべきではないでしょうか?
DALL-E や ChatGPT のような生成型人工知能モデルが最初に作成されたとき、それらは実際には「新しいものを作る」というところから始まったばかりです。トレーニング セット内の何百万もの例からパターンが抽出され、結果はさまざまなソースからのカット アンド ペーストの合成です。人間がこれを行うと、それは盗作と呼ばれます。
もちろん、人間は模倣を通じて学習します。しかし、場合によっては、その借用があまりにも明らかで、小学校の教師を不安にさせる場合もあります。この AI 生成コンテンツは、多かれ少なかれ一語一語表示される大きなテキストの塊で構成されています。しかし、場合によっては、十分な混合や合成が必要になるため、大学教授のグループに渡したとしても、その起源を発見するのが難しい場合があります。いずれにせよ、そこに独自性を見ることは不可能です。これらの機械はどんなに輝いていても、真に新しい作品を生み出すことはできませんでした。
盗作は主に学校の問題ですが、著作権法は市場にも適用されます。ある人が別の人の作品を盗用すると、法廷に持ち込まれ、場合によっては数百万ドルの罰金を科されるリスクがあります。しかし、人工知能はどうでしょうか?同じルールがそれらにも適用されますか?
著作権法は複雑なテーマであり、生成 AI の法的地位を解決するには何年もかかるでしょう。しかし、これを覚えておいてください。AI が人間を失業の危機に瀕させるのに十分に優れていると思われる仕事を生産し始めると、そのうちの一部は確実に新たな余暇を使って訴訟を起こすでしょう。
生成型人工知能によって引き起こされる法的問題は、盗作と著作権だけではありません。弁護士たちはすでに新たな訴訟倫理問題を構想している。たとえば、絵画プログラムを作成する企業は、人間のユーザーの絵画行動に関するデータを収集し、そのデータを人工知能のトレーニングに使用する必要があるでしょうか?人間はこの創造的な労働の使用に対して報酬を受け取るべきでしょうか?現世代の人工知能の成功は主にデータの取得に由来します。では、データを生成した人がパイの一部を欲しがったらどうなるでしょうか?どちらが公平ですか?何が合法と考えられますか?
AIは、人間が開発するのに何年もかかる種類の知能を模倣することに特に優れています。人類学者が 17 世紀の無名の芸術家を紹介したり、ほとんど忘れられていたルネサンスの音色構造を使って新しい音楽を書いたりするとき、私たちが感銘を受けるのには十分な理由があります。これほど深い知識を得るには何年もの研究が必要であることを私たちは知っています。わずか数か月のトレーニング後に AI がこれらと同じことを実行すると、その結果は驚くほど正確で正確ですが、いくつかの重要な要素が欠けている可能性があります。
よく訓練されたマシンが、何十億もの記録が詰まったデジタル靴箱から正しい古いレシートを見つけることができれば、アフラ・ベーンのような詩人について知っておくべきことをすべて学習できるかもしれません。機械はマヤの象形文字の意味を解読するために作られたとさえ信じているかもしれません。 AI は人間の創造性の遊び心や予測不可能な側面を模倣しているように見えるかもしれませんが、実際にはそんなことはできません。同時に、予測不可能性が創造的なイノベーションを促進します。ファッションのような業界は変化にこだわるだけでなく、変化によって定義されます。確かに、人工知能にはそれなりの役割がありますが、古き良き、苦労して獲得した人間の知能にも同様の役割があります。
知能に関して言えば、人工知能は本質的に機械的でルールベースです。 AI が一連のトレーニング データを処理すると、実際には変更されないモデルが作成されます。エンジニアやデータサイエンティストの中には、時間をかけて徐々に AI モデルを再トレーニングし、マシンが適応することを学習できるようにすることを構想している人もいます。しかし、ほとんどの場合、アイデアは、固定形式で何らかの知識をエンコードする複雑なニューロンのセットを作成することです。一定には一定の役割があり、特定の業界では機能する場合があります。 AI の危険性は、学習データの時代精神に永久に囚われ続けることです。私たち人間が生成 AI に依存しすぎて、モデルをトレーニングするための新しい素材を生成できなくなったらどうなるのでしょうか?
AI トレーニング データはどこかから取得する必要がありますが、実際に何が起こるかは必ずしもわかりません。ニューラルネットワーク、何が現れるか。 AI が学習データから個人情報を漏洩したらどうなるでしょうか?さらに悪いことに、AI は非常に柔軟に設計されているため、ロックダウンすることははるかに困難です。リレーショナル データベースでは、個人情報を含む特定のテーブルへのアクセスを制限できます。ただし、AI は何十もの異なる方法でクエリを実行できます。攻撃者は、必要な機密データを取得するために、適切な質問を適切な方法で行う方法をすぐに学びます。たとえば、特定の資産の経度と緯度がロックされているとします。賢い攻撃者は、数週間後の日の出の正確な時刻を場所に尋ねる可能性があります。忠実なAIが答えようとします。 AI に個人データを保護する方法を教える方法はまだわかっていません。
初期のメインフレーム プログラマが、「Garbage In、Garbage Out」の頭字語 GIGO を造語したことをご存知の方は、それ以来、彼らはコンピュータ問題の核心を認識していたことがわかります。 AI に関する問題の多くは、トレーニング データが不十分であることに起因します。データセットが不正確または偏っている場合、結果には必ずそれが反映されます。
生成 AI の中心となるハードウェアはスポックと同じようにロジック主導型であるかもしれませんが、マシンを構築してトレーニングする人間はそうではありません。偏見や偏向が AI モデルに入り込むことが示されています。おそらく誰かが偏ったデータを使用してモデルを作成したのでしょう。おそらく、モデルが特定のホットな質問に答えないようにするためにオーバーライドを追加したのでしょう。おそらく、ハードコーディングされた回答が入力されているため、検出が困難になる可能性があります。人類は、人工知能が私たちの有害な信念の優れた媒体となることを保証する多くの方法を見つけてきました。
AI モデルは他の多くのことをうまく実行できるため、間違いを犯すのは簡単です。ただし、人工知能は人間とは考え方が異なるため、多くのエラーを予測するのは困難です。たとえば、テキストから画像への変換機能の多くのユーザーは、AI が算術などの非常に単純な事柄を間違えていることに気づきました。人間は小学校で基本的な算数を学び、その後このスキルをさまざまな方法で使用します。 10 歳の子供にタコのスケッチを描くように依頼すると、子供はほぼ確実に、タコには 8 本の足があると判断します。現在のバージョンの人工知能は、数学の抽象的かつ状況に応じた使用に関して行き詰まる傾向があります。モデル作成者がこの間違いに注意を払えば、これは簡単に変更できますが、他にも間違いがあります。機械の知能は人間の知能とは異なります。つまり、機械の愚かさもまた異なることになります。
私たち人間は、気づかないうちに人工知能の隙間を埋めてしまうことがあります。不足している情報を補ったり、回答を埋め込んだりします。 AI がヘンリー 8 世が妻を殺害した国王だと告げても、私たちはそれを疑問に思わないでしょう。なぜなら私たち自身がこの歴史を理解していないからです。私たちは、カリスマ的なスターの前で応援するときと同じように、AI が正しいと事前に想定しているだけです。発言が自信に満ちているように聞こえる場合、人間の心は多くの場合、それを真実で正しいものとして受け入れようとします。
生成 AI のユーザーにとって最も厄介な問題は、AI がいつ間違っているかを知ることです。機械は人間のように嘘をつくことはできませんが、その分危険が増します。彼らは、完全に正確なデータをいくつか作成し、その後、誰も気付かないうちに憶測やあからさまな中傷に走ってしまうことがあります。中古車ディーラーやポーカー プレーヤーは、自分たちがいつ不正行為をしているかを知っている傾向があり、ほとんどが自分たちの中傷行為を暴露する証拠を持っています。しかし、人工知能はそうではありません。
デジタル コンテンツは無限にコピーできるため、希少性を中心に構築された多くの経済モデルが変わりました。生成 AI は、こうしたパターンをさらに打ち破るでしょう。生成型 AI は、一部の作家や芸術家を失業させるだけでなく、私たちが生き残るために依存している経済ルールの多くをひっくり返すことにもなります。広告とコンテンツの両方を際限なくリミックスして生まれ変わらせることができる場合でも、広告付きコンテンツは引き続き機能するのでしょうか?インターネットの無料部分は、ロボットが Web ページ上の広告をクリックし、すべて生成 AI によって作成され、無限に複製される世界に縮小されるのでしょうか?
この安易な豊かさは、経済の隅々にまで混乱をもたらす可能性があります。これらのトークンが永久に複製できるとしたら、人々は複製不可能なトークンに支払いを続けるでしょうか?芸術を作ることがそんなに簡単だったとしても、それは依然として尊重されるでしょうか?やはり特別なのだろうか?特別なことじゃなかったら、誰も気にしないでしょうか?すべてのものは当たり前のものとみなされると価値を失うのでしょうか?シェイクスピアが「法外な幸運の石投げと矢」と言ったのは、こういう意味だったのでしょうか?この質問に自分で答えようとするのはやめましょう。生成人工知能に答えを求めてみましょう。その答えは興味深く、奇妙で、最終的には正義と悪の間にある裏社会に不思議なことに閉じ込められることになるでしょう。
出典: www.cio.com
以上が生成 AI が懸念される 10 の理由の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。