ホームページ >テクノロジー周辺機器 >AI >人工知能300年! LSTM の父が 10,000 ワードの記事を執筆: 現代 AI とディープラーニングの開発史を詳しく解説
「人工知能」という用語は、1956 年のダートマス会議で初めてジョン マッカーシーらによって正式に提案されました。
実用的な AI は、1914 年にはすでに提案されていました。当時、Leonardo Torres y Quevedo は最初に動作するチェス マシン ターミナル プレーヤーを作成しました。当時、チェスは知的生物の領域に限定された活動と考えられていました。
人工知能の理論に関しては、1931 年から 1934 年まで遡ることができます。当時、クルト・ゲーデルは、あらゆる種類の計算ベースの人工知能の基本的な限界を特定しました。
#1980 年代になると、この時期の AI の歴史では、定理証明、論理プログラミング、エキスパート システム、そしてヒューリスティック検索。
2000 年代初頭の AI の歴史では、サポート ベクター マシンやカーネル メソッドなどのトピックに重点が置かれていました。ベイジアン推論やその他の確率的および統計的概念、デシジョン ツリー、アンサンブル手法、群知能、進化的計算は、多くの AI アプリケーションの成功を推進する技術です。
2020 年代の AI 研究は、連鎖ルールなどの深層非線形人工ニューラル ネットワークや、特にリカレントなどのフィードバック概念に基づく勾配降下によるトレーニングを強調するなど、より「レトロ」になっています。ネットワーク。
Schmidhuber 氏は、この記事は以前の誤解を招く「深層学習の歴史」を修正するものであると述べました。彼の意見では、ディープラーニングのこれまでの歴史は、記事で言及されている独創的な研究の多くを無視してきました。
さらに、シュミットフーバー氏は、ニューラル ネットワークが「コンピューターがパターンを認識し、人間の知能をシミュレートするのに役立つツールとして 1980 年代に導入された」という一般的な誤解に反論しました。なぜなら、実際には、ニューラルネットワークは1980年代より前に登場していたからです。
1. 1676: 逆信用配分の連鎖規則1676 年、ゴットフリート ヴィルヘルム ライプニッツ ) は回想録の中で微積分の連鎖規則を発表しました。現在、このルールはディープ ニューラル ネットワークの単位割り当ての中心であり、最新のディープ ラーニングの基礎となっています。
#ゴットフリード ヴィルヘルム ライプニッツ
ニューラル ネットワークには、計算を行うノードまたはニューロンがあります。他のニューロンからの入力の微分可能関数。次に、他のニューロンからの入力の微分可能関数を計算します。以前の関数のパラメーターまたは重みを変更した後の最終的な関数出力の変化を知りたい場合は、連鎖ルールを使用する必要があります。この回答は、勾配降下法にも使用されます。トレーニング セットからの入力パターンを目的の出力パターンに変換するようにニューラル ネットワークに教えるために、すべてのニューラル ネットワークの重みが局所的に最大の改善の方向に少しずつ繰り返し変更され、わずかに優れたニューラル ネットワークが作成されます。損失関数を最小限に抑えるために、重みとバイアスの最適な組み合わせに徐々に近づきます。
ライプニッツが微積分を発見した最初の数学者でもあったことは注目に値します。ライプニッツとアイザック ニュートンは独立して微積分を発見し、彼が使用した微積分の数学記号はより広く使用されていますが、ライプニッツが発明した記号はより包括的で、より幅広い応用範囲があると一般に考えられています。
さらに、ライプニッツは「世界初のコンピュータ科学者」でした。彼は 1673 年に四則演算をすべて実行できる最初のマシンを設計し、現代のコンピューター サイエンスの基礎を築きました。
1805、Adrien-Marie Legendre によって出版され、現在一般的に線形ニューラル ネットワークと呼ばれています。 ##アデリオン・マリー・ルジャンドル 後に、ヨハン・カール・フリードリッヒ・ガウスが功績を認められました。同様の研究。 2 世紀以上前のこのニューラル ネットワークには、複数の入力ユニットを備えた入力層と出力層の 2 つの層があります。各入力セルは実数値を保持でき、実数値の重みを使用した接続を介して出力に接続されます。 ニューラル ネットワークの出力は、入力とその重みの積の合計です。入力ベクトルのトレーニング セットと各ベクトルの期待ターゲット値が与えられた場合、ニューラル ネットワークの出力と対応するターゲットの間の二乗誤差の合計が最小になるように重みを調整します。 もちろん、当時はこれをニューラル ネットワークとは呼びませんでした。これは最小二乗法と呼ばれ、線形回帰としても広く知られています。しかし、それは数学的には今日の線形ニューラル ネットワークと同じです。同じ基本アルゴリズム、同じ誤差関数、同じ適応パラメータ/重みです。 ##ヨハン・カール・フリードリッヒ・ガウス 現在、あらゆる技術科目の学生は数学、特に解析、線形代数、統計の授業を受講することが義務付けられています。これらすべての分野において、代数の基本定理、ガウス消去法、統計のガウス分布など、多くの重要な結果と手法はガウスによるものです。 「古代以来最も偉大な数学者」として知られるこの男は、微分幾何学、数論(彼の好きな科目)、非ユークリッド幾何学の先駆者でもありました。彼の功績がなければ、AIを含む現代の工学は考えられなかったでしょう。 3. 1920 ~ 1925 年: 最初のリカレント ニューラル ネットワーク
##ヴィルヘルム・レンツ (左)、エルンスト・イジング (右) 物理学者Ernst Ising と Wilhelm Lenz は、1920 年代に最初の非学習 RNN アーキテクチャであるイジング モデル (イジング モデル) を導入し、分析しました。入力条件に基づいて平衡状態に入り、最初の RNN 学習モデルの基礎となります。 1972 年、甘利俊一はイジング モデル ループ アーキテクチャを適応型にし、接続重みの和集合を変更することで入力パターンを出力パターンに関連付ける方法を学習しました。これは世界初の学習型 RNN です。
甘利 純一 現在、最も人気のある RNN は、によって提案されています。シュミットフーバー 長短期記憶ネットワーク LSTM。これは、20 世紀で最も引用されたニューラル ネットワークになりました。 1958 年、Frank Rosenblatt は線形ニューラル ネットワークとしきい値関数を組み合わせて、より深い階層多層パーセプトロン (MLP) を設計しました。 フランク ローゼンブラット 多層パーセプトロン 人間の神経の原理に従うデータを学習して予測するシステム。まず学習し、次に重みを使用してデータを保存し、アルゴリズムを使用して重みを調整し、トレーニング中のバイアス、つまり実際の値と予測値の間の誤差を軽減します。 多層フィードフォワード ネットワークの学習には誤差逆伝播アルゴリズムがよく使用されるため、パターン認識の分野では標準的な教師あり学習アルゴリズムとみなされており、計算分野でも使用されています。神経学と並列分散処理の分野は引き続き研究の対象です。 ディープ フィードフォワード ネットワーク アーキテクチャの学習の成功は、Alexey Ivakhnenko と Valentin Lapa が Deep MLP であった 1965 年にウクライナで始まりました。任意の数の隠れ層により、最初の一般的な作業ベースの学習アルゴリズムが導入されました。 Alexey Ivakhnenko 対応するターゲットを持つ出力ベクトルのセットが与えられたとします。入力ベクトルのトレーニング セットを使用して、層は回帰分析によって徐々に成長およびトレーニングされ、その後、別の検証セットを使用して枝刈りされます。ここでは、正則化を使用して冗長ユニットが削除されます。層の数と層ごとの単位は、問題に応じた方法で学習されます。 後のディープ ニューラル ネットワークと同様に、イヴァクネンコのネットワークは、受信データの階層化された分散された内部表現を作成することを学習しました。 彼はそれらを深層学習ニューラル ネットワークとは呼びませんでしたが、それが実際のネットワークでした。実際、「ディープラーニング」という用語は、1986 年に Dechter によって初めて機械学習に導入され、Aizenberg らによって 2000 年に「ニューラル ネットワーク」の概念が導入されました。 1967 年、甘利純一は確率的勾配降下法 (SGD) によるニューラル ネットワークのトレーニングを初めて提案しました。 甘利俊一と彼の学生である斉藤は、非線形分離可能なパターン クラスで分類を実行するようにトレーニングされた 2 つの変更可能な層を備えた 5 層 MLP で内部表現を学習しました。 Rumelhart と Hinton らは 1986 年に同様の研究を行い、それをバックプロパゲーション アルゴリズムと名付けました。 1970 年、Seppo Linnainmaa は、有名な微分可能ノード ネットワーク クレジット割り当てアルゴリズムであるバックプロパゲーション アルゴリズムの公開を主導しました。 「自動微分の逆モード」として知られています。 Seppo Linnainmaa Linnainmaa は、初めて任意のことを説明します。 discrete 接続が疎なニューラル ネットワーク向けの効率的な誤差逆伝播法。これは現在、PyTorch や Google の Tensorflow など、広く使用されているニューラル ネットワーク ソフトウェア パッケージの基礎となっています。 バックプロパゲーションは本質的に、深いネットワークにライプニッツの連鎖規則を実装する効率的な方法です。 Cauchy によって提案された勾配降下法は、特定のニューラル ネットワーク接続を徐々に弱め、他のニューラル ネットワーク接続を強化するために多くの実験の過程で使用されています。 コンピューティング コストが 1970 年に比べて約 1,000 倍低かった 1985 年、裕福な学術研究室でデスクトップ コンピューターが普及し始めた頃、David Rumelhart らは既知の分析方法を実験していました。 David Rumelhart #実験を通じて、Rumelhart らは、バックプロパゲーションが有効な内部表現を生成できることを証明しました。ニューラルネットワークの隠れ層。少なくとも教師あり学習の場合、バックプロパゲーションは、前述の甘利俊一による SGD 手法による深層学習よりも効果的な場合が多いです。 2010 年以前は、多層ニューラル ネットワークのトレーニングには教師なしの事前トレーニングが必要であると多くの人が信じていました。 2010 年に、Schmidhuber のチームと Dan Ciresan は、深い FNN が単純な逆伝播でトレーニングでき、重要なアプリケーションでは教師なしの事前トレーニングをまったく必要としないことを示しました。 1979 年、福島邦彦は技研でパターン認識用の畳み込みニューラル ネットワークを開発しました。ニューラル ネットワーク モデル: Neocognitron。 福島邦彦 しかし、このネオコグニトロンは、今日の言葉で言えば、畳み込みと呼ばれます。ニューラル ネットワーク (CNN) は、ディープ ニューラル ネットワークの基本構造における最大の発明の 1 つであり、現在の人工知能の中核技術でもあります。 福島博士が紹介したネオコグニトロンは、畳み込みとダウンサンプリングを使用した最初のニューラル ネットワークであり、畳み込みニューラル ネットワークのプロトタイプでもあります。 福島邦彦が設計した学習機能を備えた人工多層ニューラルネットワークは、脳の視覚ネットワークを模倣することができ、この「洞察力」が現代の人工知能技術の基礎となっています。福島博士の研究は、自動運転車から顔認識、がん検出から洪水予測に至るまで、さまざまな実用化につながり、今後さらに多くの応用が期待されます。 1987 年、Alex Waibel はニューラル ネットワークと重み共有による畳み込みおよびバックプロパゲーションを組み合わせ、遅延ニューラル ネットワーク (TDNN) の概念を提案しました。 1989 年以来、Yann LeCun のチームは、特に画像において CNN の改善に貢献してきました。 Yann LeCun 2011 年後半、シュミットフーバーのチームは大幅にスピードアップしました。ディープ CNN のトレーニング速度により、機械学習コミュニティでの人気が高まっています。チームは、初期の CNN よりも深くて高速な GPU ベースの CNN、DanNet を立ち上げました。同年、DanNet は純粋にディープな CNN として初めてコンピューター ビジョン コンペティションで優勝しました。 Microsoft Research の 4 人の学者によって提案された残差ニューラル ネットワーク (ResNet) は、2015 年の ImageNet 大規模視覚認識コンペティションで 1 位を獲得しました。 シュミットフーバー氏は、ResNet は彼のチームが開発した高速ニューラル ネットワーク (Highway Net) の初期バージョンであると述べました。これは、最大でも数十層しかなかった以前のニューラル ネットワークと比較して、数百層を備えた初めての真に効果的なディープ フィードフォワード ニューラル ネットワークです。 構造化データ (グラフィックスなど) を操作できる深層学習アーキテクチャは、1987 年から 1990 年代にポラックによって開発されました。 1987 年に提案され、1990 年代初頭に Sperduti、Goller、Küchler によって拡張および改良されました。現在、グラフ ニューラル ネットワークは多くのアプリケーションで使用されています。 Paul Werbos と R. J. Williams らは、RNN で勾配降下法を実装する方法を分析しました。 Teuvo Kohonen の自己組織化マップも人気があります。 テウヴォ・コホネン 1990 年、スティーブン ハンソンは、バックプロパゲーションを通じてニューラル ネットワークをトレーニングする確率的手法である確率的デルタ ルールを導入しました。数十年後、この方法は「ドロップアウト」というあだ名で普及しました。 敵対的生成ネットワーク (GAN) は、1990 年に「人工知能の好奇心」として初めて使用されました。 。 2 つの敵対的な NN (確率ジェネレータと予測子) は、最小制限ゲームで互いの損失を最大化しようとします。ここで: GAN に関する 2014 年の論文の 4 年前、シュミットフーバーは、有名な 2010 年の調査で 1990 年の敵対的生成 NN を次のように要約しました。本質的な報酬であり、モデルの予測誤差に比例します。」 後にリリースされる GAN はほんの一例です。実験が非常に短い場合、環境は、コントローラー (またはジェネレーター) の出力が指定されたセットに含まれるかどうかに応じて、単純に 1 または 0 を返します。 1990 年の原則は強化学習の探求とリアルな画像の合成に広く使用されていますが、後者の分野は最近 Rombach らによる潜在拡散法に引き継がれました。 1991 年、Schmidhuber は、部分的に冗長なデータの個別の表現を作成するための、予測可能性の最小化と呼ばれる 2 つの敵対的 NN に基づく別の ML 手法を公開しました。1996 年には画像に適用されました。 ここ数世紀、ほとんどの NN は高度な推論ではなく、単純なパターン認識に専念してきました。 。 しかし、1990 年代初頭に、初めて例外が現れました。この研究では、従来の「シンボリック」階層型人工知能の概念を、エンドツーエンドで区別可能な「サブシンボリック」NN に注入します。 1990 年、シュミットフーバーのチームの NN は、エンドツーエンド微分可能 NN のサブ目標ジェネレーターを使用して、階層強化学習 (HRL) の階層アクション プランを生成する方法を学習しました。 RL マシンは、(開始、ターゲット) 形式で追加のコマンド入力を取得します。推定器 NN は、開始から目標までの現在の報酬/コストを予測することを学習します。 (R)NN ベースのサブゴール ジェネレーターは、(開始、ゴール) を確認し、エバリュエーター NN の (コピー) を使用した勾配降下法によって一連の最低コストの中間サブゴールを学習します。 RL マシンは、この一連のサブ目標を使用して最終目標を達成しようとします。 システムは、複数の抽象レベルと複数の時間スケールでアクション プランを学習し、原理的には最近「未解決の問題」と呼ばれるものを解決します。 「リニア セルフ アテンション」を備えたトランスフォーマーは、1991 年 3 月に初めて公開されました。 これらのいわゆる「高速ウェイト プログラマ」または「高速ウェイト コントローラ」は、従来のコンピュータと同じようにストレージと制御を分離しますが、エンドツーエンドで差別化され、適応性があり、ニューラルな機能を備えています。ネットワークのやり方。 さらに、今日の Transformers は、1990 ~ 1991 年に Schmidhuber によって初めて公開された深層学習手法である教師なし事前トレーニングを広範囲に利用しています。 今日の最も強力な NN は、非常に深い傾向があります。つまり、多くの層があります。ニューロンの数やその後の多くの計算段階。 ただし、1990 年代以前は、勾配ベースのトレーニングは深い NN に対しては機能しませんでした (浅い NN に対してのみ)。 フィードフォワード NN (FNN) とは異なり、RNN にはフィードバック接続があります。これにより、RNN は、あらゆる長さの入力シーケンス (音声やビデオなど) を処理できる、強力な汎用の並列シーケンス コンピューターになります。 ただし、1990 年代以前は、RNN は実際には深い問題を学習できませんでした。 この目的を達成するために、シュミットフーバーは自己教師あり RNN 階層を確立し、「普遍的な深層学習」の実現を試みました。 1991 年に Schmidhuber によって提案された NN 蒸留手順を使用することにより、上記の階層的内部表現を実行Neural History Compressor の を単一の再帰 NN (RNN) に圧縮できます。 ここでは、教師 NN の行動を模倣するように生徒 NN をトレーニングすることで、教師 NN の知識が生徒 NN に「蒸留」されます (同時に、生徒 NN を再トレーニングして、以前に習得したスキルは忘れられません)。 NN 蒸留法も何年も後に再出版され、今日広く使用されています。 シュミットフーバーの最初の学生であるゼップ ホッホライターは、1991 年の卒業論文「深層学習の基本問題」でこの問題を発見し、分析しました。 ディープ NN は、現在有名になっている勾配消失問題に悩まされています。典型的なディープ ネットワークやリカレント ネットワークでは、逆伝播された誤差信号が急速に縮小するか、限界を超えて増大します。どちらの場合も、学習は失敗します。 長短期記憶 (LSTM) 再帰ニューラル ネットワークは、Sepp Hochreiter が上記の 1991 年の論文で指摘した基本的な深層学習の問題を克服します。 1997 年に査読済みの論文 (現在、20 世紀で最も引用されている NN 論文) を発表した後、シュミットフーバーの学生であるフェリックス ゲルスとアレックス グレイブスらが、その論文をさらに改良した LSTM とそのトレーニング手順。 1999 年から 2000 年に公開された LSTM バリアント (忘却ゲートを備えた「バニラ LSTM アーキテクチャ」) は、現在でも Google の Tensorflow で使用されています。 2005 年に、Schmidhuber は、LSTM (これも広く使用されています) の完全なバックプロパゲーションと双方向伝播に関する記事を時間内に初めて発表しました。 2006 年の画期的なトレーニング方法は、配列のアラインメントと識別を同時に行うために使用される「Connectionist Temporal Classification」(CTC) でした。 シュミットフーバーのチームは、2007 年に CTC でトレーニングされた LSTM を音声に適用することに成功し (階層化された LSTM スタックもありました)、優れたエンドツーエンドのニューラル音声認識を初めて達成しました。 2009 年、Alex の努力により、CTC によって訓練された LSTM は、国際コンテスト、つまり 3 つの ICDAR 2009 手書きコンテスト (フランス語、ペルシア語、アラビア語) で優勝した最初の RNN となりました。これは業界に大きな関心を呼び起こしました。 LSTM は、音声やビデオなどのシーケンス データが関係するあらゆる状況ですぐに使用されました。 2015 年、CTC と LSTM の組み合わせにより、Android スマートフォンでの Google の音声認識パフォーマンスが大幅に向上しました。 2019 年まで、Google のモバイル端末での音声認識は依然として LSTM に基づいていました。 1995 年に、シュミットフーバーは優れた神経確率テキスト モデルを提案しました。その基本概念は、 2003年製を再利用しました。 2001 年に、Schmidhuber は、HMM などの従来のモデルが学習できない言語を LSTM が学習できることを示しました。 2016 年の Google 翻訳は、接続された 2 つの LSTM (ホワイト ペーパーでは LSTM について 50 回以上言及されています) に基づいており、1 つは受信テキスト用、もう 1 つは送信翻訳用です。 同年、Google データセンターで推論に使用される膨大なコンピューティング能力の 4 分の 1 以上が LSTM に使用されました (そして 5% は別の人気のある深層学習テクノロジ、つまり CNN に使用されました)。 # 2017 年までに、LSTM は Facebook の機械翻訳 (週あたり 300 億以上の翻訳)、Apple の約 10 億台の iPhone にも利用されました。 Quicktype、Amazon Alexa Voice、Google Image Caption Generation、自動電子メール応答のサポートを提供します。 もちろん、シュミットフーバーの LSTM はヘルスケアや医療診断でも広く使用されています。単純な Google Scholar 検索で、タイトルに「LSTM」を含む無数の医学論文が見つかります。 2015 年 5 月、シュミットフーバー チームは、LSTM 原理に基づいたハイウェイ ネットワークを提案しました。これは、数百の層を備えた最初の非常に深い FNN (以前は The NN) でした。多くても数十のレイヤーしかありません)。 Microsoft の ResNet (ImageNet 2015 コンペティションで優勝) は、そのバージョンです。 ImageNet 上の初期の Highway Net のパフォーマンスは、ResNet とほぼ同じでした。 Highway Net のバリアントは、純粋な残差層が適切に実行されない特定のアルゴリズム タスクにも使用されます。 深層学習の中核は NN の深さです。 1990 年代、LSTM は教師あり再帰 NN に本質的に無限の深さをもたらしました。2000 年には、LSTM からインスピレーションを得たハイウェイ ネットによりフィードフォワード NN の深さがもたらされました。
現在、LSTM は 20 世紀で最も引用される NN となり、ResNet は Highway のバージョンの 1 つです。 Net、21 世紀で最も引用された NN です。 #さらに、NN は強化学習 (RL) にも関連しています。 問題の一部は、1980 年代に発明された非神経学的技術によって解決できますが。たとえば、モンテカルロ木探索 (MC)、動的計画法 (DP)、人工進化、α-β 枝刈り、制御理論とシステム同定、確率的勾配降下法、一般的な探索手法などです。ただし、ディープ FNN と RNN は、特定の種類の RL タスクに対してより良い結果をもたらす可能性があります。 一般的に、強化学習エージェントは、教師の助けを借りずに、動的で、当初は未知で、部分的に観察可能な環境と対話する方法を学習する必要があります。これにより、期待される累積報酬信号が最大化されます。 。行動と認識された結果の間には、任意の先験的に未知の遅延が存在する可能性があります。 環境にマルコフ インターフェイスがあり、RL エージェントへの入力が次善のアクションを決定するために必要なすべての情報を伝えることができる場合の動的プログラミング (DP)/タイミングに基づいています。 TD)/モンテカルロ木探索 (MC) RL は非常に成功する可能性があります。 マルコフ インターフェイスを使用しないより複雑な状況の場合、エージェントは現在の入力だけでなく、以前の入力の履歴も考慮する必要があります。この点で、RL アルゴリズムと LSTM の組み合わせ、特にポリシー勾配を通じてトレーニングされた LSTM の組み合わせが標準ソリューションになっています。 たとえば、2018 年、OpenAI の有名な Dactyl の中心となる PG でトレーニングを受けた LSTM は、教師なしで器用なロボット ハンドを制御する方法を学習しました。 ビデオゲームにも同じことが当てはまります。 2019 年、DeepMind (シュミットフーバー研究所の学生によって共同設立) は、PG によってトレーニングされた Deep LSTM コアを備えた Alphastar を使用して、ゲーム「StarCraft」でプロのプレイヤーを破りました。 同時に、RL LSTM (モデル パラメーターの総数の 84% を占める) は、Dota 2 で人間のプロ プレーヤーを破った有名な OpenAI Five の中核でもあります。 #RL の将来は、複雑な入力ストリームのコンパクトな時空間抽象化による学習/結合/計画、つまり常識的な推論と思考の学習に関するものになります。 シュミットフーバーは、1990 年から 1991 年に発表された論文で、自己教師あり神経履歴圧縮器が複数の抽象レベルと複数の時間スケールで表現概念を学習できることを提案しました。エンドツーエンドで識別可能な NN サブ目標ジェネレーターにより、勾配降下法を通じて階層的なアクション プランを学習できます。 その後、1997 年と 2015 年から 2018 年にかけて、抽象的思考を学ぶためのより洗練された方法が出版されました。 過去 1,000 年間、コンピューター ハードウェアの継続的な改善とアップグレードの加速がなければ、ディープ ラーニング アルゴリズムは機能しませんでした。大きな進歩があるかもしれません。 私たちの最初に知られているギア付きコンピューティング デバイスは、2,000 年以上前の古代ギリシャのアンティキティラの機械です。これは、現在知られている最古の複雑な科学コンピューターであり、世界初のアナログ コンピューターです。 Antikythera Machinery そして世界初のこの実用的なプログラム可能機械は、紀元 1 世紀に古代ギリシャの機械工ヘレンによって発明されました。 17 世紀の機械はより柔軟になり、入力データに基づいて答えを計算できるようになりました。 単純な算術のための最初の機械式計算機は、1623 年にヴィルヘルム シッカードによって発明され、製造されました。 1673 年、ライプニッツは四則演算をすべて実行でき、メモリを備えた最初の機械を設計しました。彼はまた、パンチカードによって制御されるバイナリコンピュータの原理について説明し、深層学習と現代の人工知能の重要な部分を形成する連鎖規則を提案しました。 ライプニッツ乗数 1800年頃、ジョゼフ・マリー・ジャカールとフランス初のデザイン可能な織機であるジャカード機を製作した人もいます。この発明は、コンピュータなどの他のプログラム可能な機械の将来の開発に役立ちました。 ジャカード織機 彼らは、エイダ・ロウ、エイダ・ラブレスと彼女の指導者にインスピレーションを与えました。 Charles Babbage は、現代の電子コンピューターの前身である Babbage's Difference Engine を発明しました。 翌 1843 年、ラブレスは世界初のコンピューター アルゴリズムのセットを発表しました。 バベッジのディファレンス エンジン 1914 年、スペイン人のレオナルド トーレスは、ケベドは、最初のチェス ターミナル マシン プレーヤーを作成し、20 世紀初の人工知能の先駆者となりました。 1935 年から 1941 年にかけて、Konrad Zuse は世界初の動作可能なプログラム可能な汎用コンピューター、Z3 を発明しました。 #Conrad Zuse 1944 年、ハワード エイケンはチームを率いて、世界初の大型自動デジタル コンピューター Mark I (Mark I) を発明しました。 1948 年にフレデリック ウィリアムズ、トム キルバーン、ジェフ トゥーティルによって発明されました。世界初の電子ストアド プログラム コンピューター: 小型実験マシン (SSEM)、「マンチェスター ベイビー」としても知られています。
「マンチェスター・ベイビー」レプリカ 1958 年、ジャック キルビーは外部ワイヤを備えた集積回路をデモンストレーションしました。 1959 年、ロバート ノイスはモノリシック集積回路を提案しました。 1970 年代以来、グラフィックス プロセッシング ユニット (GPU) は、並列処理を通じてコンピューティングを高速化するために使用されてきました。現在、コンピューターの GPU には数十億個のトランジスタが含まれています。 物理的な限界はどこにあるのでしょうか? ハンス ヨアヒム ブレーマーマンによって提案されたブレーマーマン限界によると、質量 1 キログラム、体積 1 リットルのコンピューターは、最大で 10 の 51 乗まで実行できます。 10 の 32 乗までの位置での 1 秒あたりの操作数。
##ハンス・ヨアヒム・ブレマーマン ただし、太陽系の質量はわずか 2x10^30 キログラムであり、他の太陽系の形で追加の質量を獲得することは光の速度によって厳しく制限されるため、この傾向は数世紀以内に必ず破られるでしょう。 したがって、物理学の制約により、将来の効率的なコンピューティング ハードウェアは、総接続コストを最小限に抑えるために 3 次元空間にコンパクトに配置された多くのプロセッサを備えた脳のようなもの、つまりその基本アーキテクチャである必要があります。これは本質的に、深く、まばらに接続された 3 次元 RNN です。 Schmidhuber 氏は、このような RNN のための深層学習手法がより重要になるだろうと推測しています。 18. 1931 年以降の人工知能理論 1930 年代初頭、ゲーデルは現代の理論的コンピューター サイエンスを創設しました。彼は、あらゆるデジタル コンピューターの操作を公理形式で形式化できる整数に基づく汎用コーディング言語を導入しました。 同時に、ゲーデルは、計算定理テスターに与えられた無数の公理セットから考えられるすべての定理を系統的に列挙する、有名な形式的ステートメントも作成しました。したがって、彼はアルゴリズム定理証明、計算、およびあらゆる種類の計算ベースの人工知能の基本的な限界を特定しました。 さらに、ゲーデルは、ジョン・フォン・ノイマンへの有名な手紙の中で、コンピューターサイエンスにおける最も有名な未解決の質問「P=NP?」を特定しました。 1935年、アロンゾ・チャーチは、ヒルベルトとアッカーマンの意思決定の問題には一般的な解決策がないことを証明することで、ゲーデルの結果の必然性を導き出しました。これを行うために、彼は、非常に影響力の高いプログラミング言語 LISP の基礎を形成した、型なしラムダ計算と呼ばれる別の汎用コーディング言語を使用しました。 1936 年に、アラン チューリングは別の一般的なモデルであるチューリング マシンを導入し、上記の結果を再度得ました。同年、エミール・ポストは、別の独立した一般的なコンピューティング モデルを発表しました。 Konrad Zuse は、世界初の使用可能なプログラム可能な汎用コンピューターを作成しただけでなく、初の高級プログラミング言語 Plankalkül も設計しました。彼は 1945 年にそれをチェスに適用し、1948 年には定理証明に適用しました。 Plankalkül 1940 年代初頭から 1970 年代のほとんどの人工知能は、エキスパート システムと論理プログラミングによる定理証明とゲーデル導出についてです。 1964 年、レイ ソロモノフは、ベイジアン (実際にはラプラス) の確率的推論と理論的なコンピューター サイエンスを組み合わせて、過去の観測から将来のデータを予測するための数学的に最適な (ただし計算的には実行不可能な) 学習方法に到達しました。 彼はアンドレイ・コルモゴロフとともに、コロトコフ複雑性理論またはアルゴリズム情報理論 (AIT) を創設しました。これは、データを計算する最短プログラムの概念を通じてオッカムの剃刀の概念を形式化しました。従来の情報理論を超えます。 コリオリの複雑さ 自己参照ゲーデル機械はより一般的ですの最適性は漸近的な最適性に限定されません。 それにもかかわらず、このような数学的に最適な人工知能は、さまざまな理由からまだ実際には実現できません。代わりに、実用的な現代の人工知能は、NN や深層学習など、最適ではない、限定的ではあるがあまり理解されていないテクノロジーに基づいています。 しかし、人工知能の歴史が 20 年後にどうなっているかは誰にもわかりません。 2. 19 世紀初頭: ニューラル ネットワーク、線形回帰、浅い学習
4. 1958: 多層フィードフォワード ニューラル ネットワーク
5. 1965: 最初のディープ ラーニング
6. 1967 ~ 1968 年: 確率的勾配降下法
7. 1970: バックプロパゲーション アルゴリズム
8. 1979: 最初の畳み込みニューラル ネットワーク
9. 1987 ~ 1990 年代: グラフ ニューラル ネットワークと確率的デルタ ルール
10. 1990 年 2 月: 敵対的生成ネットワーク/好奇心
11. 1990 年 4 月: 指示に従ってサブ目標/作業を生成する
12. 1991 年 3 月: リニア セルフ アテンションを備えたトランスフォーマー
1991 年 4 月 13 日: 自己教師付き事前トレーニングによる深層学習
1991 年 4 月: 1 つの NN を別の NN に蒸留する
1991 年 6 月 14 日: 基本問題 - 勾配消失
1991 年 6 月 15 日: LSTM/Highway Net/ResNet の基礎
1995: 神経確率言語モデル
LSTM/Highway Net 原則は現代の深層学習の中核です
16, 1980 から現在: 教師なしでアクションを学習するための NNN
17. それはハードウェアの問題です、バカ!
現代の人工知能と深層学習の中核は、主に近年数世紀の数学、つまり微積分、線形代数、統計に基づいています。
以上が人工知能300年! LSTM の父が 10,000 ワードの記事を執筆: 現代 AI とディープラーニングの開発史を詳しく解説の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。