ホームページ >テクノロジー周辺機器 >AI >モデルが十分に大きく、サンプルが十分に大きい限り、AI はより賢くなることができます。
AI モデルと人間の脳の間には、数学的メカニズムに違いはありません。
モデルが十分に大きく、サンプルが十分に大きい限り、AI はより賢くなることができます。
chatGPT の登場により、この点が実際に証明されました。
論理操作に基づいています。
プログラミング言語の基本ロジックは if else で、条件式に基づいてコードを 2 つの分岐に分割します。
これに基づいて、プログラマーは非常に複雑なコードを記述し、さまざまなビジネス ロジックを実装できます。
人間の脳の基本的なロジックも if else です。if else という 2 つの単語は英語から来ており、対応する中国語の語彙は if...else...
人間の場合脳は問題を考える これも非常に論理的な考え方であり、この点ではコンピューターと何ら変わりません。
ロジックの核となるif else文
AIモデルの「if else文」が活性化関数です!
AI モデルの計算ノード。「ニューロン」とも呼びます。
これには、入力ベクトル X、重み行列 W、バイアス ベクトル b、および活性化関数があります。
アクティベーション関数は実際には if else ステートメントであり、線形演算 WX b は条件式です。
AI モデルのコードは、有効化後は if ブランチで実行することと同等になり、有効化されていない場合は else ブランチで実行することと同等になります。
多層ニューラル ネットワークのさまざまな活性化状態は、実際にはサンプル情報のバイナリ エンコードです。
ディープラーニングもサンプル情報のバイナリエンコードです
AIモデルによるサンプル情報のエンコードは動的かつ並列であり、同じではありませんCPU コードとして これらは静的かつシリアルですが、その基礎となるのは if else です。
回路レベルであれば実装は難しくなく、三極管でも実装可能です。
人間の脳は常に外界から情報を取得し、自身の情報を常に更新しています。サンプル データベース」を参照してください。ただし、プログラム コード自体は更新できません。そのため、多くの人は更新できますが、コンピューターは更新できません。
人間の脳のコードは生きていますが、コンピューターのコードは死んでいます。
もちろん、「デッド コード」が「ライブ コード」より賢いということはありません。「ライブ コード」は「デッド コード」のバグを積極的に見つけることができるからです。
実数の連続性に従い、「デッドコード」に符号化された情報が可算である限り、符号化できないバグポイントは必ず存在します。
これは、カントールの 3 点集合によって数学的に裏付けられます。
区間 [0, 1] の実数をエンコードするために使用する 3 進 10 進数の数に関係なく、エンコードできない点が常に少なくとも 1 つ存在します。
つまり、2 人が議論するときは、いつでも論点を見つけることができます。
しかし、コンピューター コードは一度書かれると自動的に更新されないため、プログラマーはさまざまなアイデアを思いつくことができます。 CPUを騙す方法。
たとえば、Intel の CPU は当初、プロセスを切り替えるときにタスク ゲートを切り替える必要がありましたが、Linux はページ ディレクトリと RSP レジスタのみを切り替える方法を考案しました。
Intel CPU の観点では、 Linux システムでも同じプロセスが実行されていますが、そうではありません。これをプロセスソフトスイッチングと呼びます。
つまり、CPU の回路が固定されている限り、CPU によってエンコードされた情報も固定されます。
CPU によってエンコードされる情報は固定されているため、エンコードできない情報は無制限であり、プログラマは使用できます。
プログラマーがこの情報を使用できる理由は、プログラマーの脳が生きており、サンプルを動的に更新できるためです。
ニューラルネットワークは本当に素晴らしい発明で、固定回路上で動的な情報更新を実現します。
CPU 回路や各種システムのコードなど、記述されたすべてのプログラムが処理できる情報は固定されています。
しかし、これはニューラル ネットワークの場合には当てはまりません。コードは記述されていますが、必要なのはモデルの論理コンテキストを変更するために重みデータを更新することだけです。
実際には、新しいサンプルが継続的に入力される限り、AI モデルは BP アルゴリズム (勾配降下アルゴリズム) を使用して重量データを継続的に更新し、新しいビジネス シナリオに適応できます。
AI モデルの更新にはコードの変更は必要なく、データの変更のみが必要です。そのため、同じ CNN モデルが異なるサンプルでトレーニングされた場合、異なるオブジェクトを認識できます。
このプロセスでは、tensorflow フレームワークのコードと AI モデルのネットワーク構造は変更されず、変更されるのは各ノードの重みデータです。
理論的には、AI モデルがネットワーク経由でデータをクロールできる限り、AI モデルはよりスマートになる可能性があります。
これは、人々がブラウザを通じて物事を観察する (したがって賢くなる) こととは根本的に異なりますか?そうではないようです。
人間の脳には 150 億個のニューロンがあり、人間の目と耳があります。もちろん、AI モデルは新しいデータを提供することでこれを行うこともできます。
おそらく AI と比較して、人間の利点は「産業チェーン」が短いことです。
赤ちゃんの誕生には両親だけが必要ですが、AI モデルの誕生には明らかにそうではありません1 つまたは 2 つのプログラムが必要です。メンバーはそれを行うことができます。
GPU を製造している人だけでも数万人以上います。
GPU 上の CUDA プログラムを書くのは難しくありませんが、GPU 製造の産業チェーンは長すぎて、人類の誕生と成長に比べればはるかに劣ります。
これが、人間と比較した AI の本当の欠点かもしれません。
以上がモデルが十分に大きく、サンプルが十分に大きい限り、AI はより賢くなることができます。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。