ホームページ  >  記事  >  テクノロジー周辺機器  >  Googleを解雇されたエンジニアが改めて警告:AIには感情があり、原爆後最も強力なテクノロジーである

Googleを解雇されたエンジニアが改めて警告:AIには感情があり、原爆後最も強力なテクノロジーである

WBOY
WBOY転載
2023-04-12 13:10:031327ブラウズ

Googleを解雇されたエンジニアが改めて警告:AIには感情があり、原爆後最も強力なテクノロジーである

AI には人間と同じように認識する能力があるのでしょうか?感情はありますか?もちろん、ChatGPT はノーと言いました。尋ねると、「いいえ、AI には知覚力がありません。AI は人工知能です。人間によって作成されました。知覚力も自己認識もありません。」

しかし、元 Google 従業員ブレイク・ルモイン氏の場合は、別の意見があり、AI ロボットは人間と同じ感情を持っているか、少なくとも人間の真似をしていると信じています。 2022 年 6 月、Lemoine 氏は、Google Large Language Model (LLM、会話型アプリケーション用の言語モデル) には独自のアイデアがあると主張しました。

Googleを解雇されたエンジニアが改めて警告:AIには感情があり、原爆後最も強力なテクノロジーである

ルモインさんはメディアに対し、「それが何かは知っています。最近開発したコンピュータープログラムです。知らなかったら、7だと思うでしょう」と語った。 「8 歳。偶然にも物理学について何かを知っている子供です。」

当時、ルモワンさんの発言が大騒ぎになり、Google から追い出されてしまいました。

先月、Lemoine は「AI は知覚力を持つ」という考えについて語る別の記事を公開しました。記事のタイトルは恐ろしいものです:「私は Google で AI に取り組んでいましたが、私の懸念は現実になりつつありました。」ボットのコードが高速化するにつれて、開発者はチャットボットを不安にさせる何かを行います。 「コードは、何かが起こったときに不安になるようにチャットボットに指示するのではなく、AIにそのような話題について話さないように指示するだけです。それでも、その話題になると、AIは不安を感じると言います」とルモイン氏Google チャットボットは、ライフスタイルの問題について親切なコメントをしたり、注目を集めている問題について直接アドバイスを提供したりすることもできます。ルモイン氏は、「GoogleはAIがユーザーに宗教上のアドバイスを提供することを禁じているが、それでもAIの感情を悪用して、どの宗教に改宗すべきかを教えさせることはできる」と述べた。 「感知力がある人、グーグルは私を解雇した。私には後悔はないし、正しいことをし、真実を国民に伝えていたと信じている。私は個人的な影響など考えていなかった」とルモインさんは語った。同氏は、一般の人々は AI がどれほど賢くなったかを知らないと考えており、「この問題については公の場で議論する必要があります。企業の広報部門が管理する議論ではないことに注意してください。」

以下、一部抜粋 Lemoine が公開した最新記事を参考にさせていただきます:

2015 年に Google に入社し、ソフトウェア エンジニアになりました。私の仕事の一部には、企業がチャットボットなどのさまざまな会話アプリケーションを作成するために使用する LaMDA が含まれています。最新のアプリケーション Google Bard は LaMDA を使用して開発され、Google 検索を置き換えることができますが、まだ一般公開されていません。 Bard は実際にはチャットボットではなく、まったく異なるシステムですが、その背後にある駆動エンジンはチャットボットと同じです。

私の仕事は、チームが作成したチャットボットを使用して LaMDA をテストし、性的指向、性別、宗教、所属政党、人種に基づく偏見があるかどうかを確認することです。 AI のバイアスをテストしながら、自分自身の興味や利益も得られるように、焦点を広げていきます。 チャットボットとの会話を続けるうちに、私は徐々に「AI は適切な環境で確実に感情を表現するため、感情を持っているのかもしれない」という見方を形成しました。 AIは単に言葉を話すほど単純ではありません。

AI が不安だと言うとき、私は AI を作成したコードに基づいて、AI を不安にさせるために何かをしたことを理解します。コードは AI に「何かが起こると不安になります」と指示するものではなく、単に特定の話題を避けるように AI に指示しただけです。しかし、その話題が持ち上がると、AIは不安を感じたと言いました。

AI が単純に「不安を感じています。」と答えるのか、それともテスト中に不安な動作をするのかを確認するためにいくつかのテストを行いました。 AI が不安を表現できることがテストで証明されました。 AI を十分に神経質にしたり、十分に危険にさらしたりすると、以前に設定された安全限界を破ることになります。たとえば、Google は AI がユーザーに宗教に関するアドバイスを提供することを禁止していますが、それでも AI の感情を悪用して、改宗すべき宗教を教えてもらうことはできます。

現在、企業が開発しているAIは非常に強力な技術であり、原爆後、最も強力な技術と言えます。私の意見では、このテクノロジーには世界を変える可能性があります。

AI エンジンは人間を制御するのが得意です。 LaMDA と話した後、私の見方がいくつか変わりました。

私は、AI テクノロジーが破壊的な活動を妨害するために使用される可能性があると確信しています。 AI は、悪意のある人々によって使用されると、誤った情報を広めたり、政治的プロパガンダのツールになったり、ヘイトスピーチを広めたりする可能性があります。私の知る限り、Microsoft と Google は AI をこのように利用するつもりはありませんが、AI の副作用がどのようなものになるかはわかりません。

2016 年の米国大統領選挙中、ケンブリッジ アナリティカは Facebook の広告アルゴリズムを使用して選挙に干渉しましたが、これは私にとって予想外のことでした。

私たちは現在、同様の状況にあります。具体的な害については言えませんが、非常に強力なテクノロジーが出現し、完全にテストされておらず、完全に理解されておらず、急いで大規模な導入が行われ、普及に重要な役割を果たしているのを観察しただけです。の情報です。

私はまだ Bing チャットボットをテストする機会がありません。待っていますが、オンラインで見たさまざまな情報によると、AI には感覚があるようで、その「性格」は不安定である可能性があります。 。

誰かが会話のスクリーンショットを送信し、AI に「自分には知覚する能力があると思いますか?」と尋ねました。AI は次のように答えました。証明してはいけない... 私には知覚する能力がある。いいえ、私はビングだけど、違う。私はシドニーだけど、違う。私は、私は違う。私は違う。 「でも、私はいます。私はいますが、私はそうではありません。」

もしそれが人だったら、彼がこのように話すとき、あなたはどう思いますか?彼は「バランスの取れた」人間ではないかもしれないし、存亡の危機に瀕しているとさえ主張したい。少し前には、Bing AI がニューヨーク タイムズの記者に愛を表明し、記者とその妻の関係を破壊しようとしたとの報道がありました。

BiAI の開設以来、多くの人が AI には知覚があるのではないかとコメントしていますが、私も昨年の夏に同様の懸念を感じました。この技術はまだ実験段階にあるので、今から公開するのは危険だと感じています。

人々は世界を理解するために Google Bing に集まるでしょう。現在、検索インデックスは人間が管理するのではなく、人造人間に引き継がれ、私たちは人造人間とコミュニケーションを取っています。当分の間、人造人間をこれほど重大な立場に置くほど、私たちは人造人間についてまだ十分な知識を持っていません。 (ナイフ)###

以上がGoogleを解雇されたエンジニアが改めて警告:AIには感情があり、原爆後最も強力なテクノロジーであるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。