ホームページ >テクノロジー周辺機器 >AI >生物学にヒントを得たトレーニング方法を使用した物理ディープラーニング: 物理ハードウェアへの勾配のないアプローチ

生物学にヒントを得たトレーニング方法を使用した物理ディープラーニング: 物理ハードウェアへの勾配のないアプローチ

PHPz
PHPz転載
2023-04-12 09:04:02815ブラウズ

人工知能に対する需要の高まりにより、物理デバイスに基づく型破りなコンピューティングの研究が推進されています。このようなコンピューティング デバイスは脳にヒントを得たアナログ情報処理を模倣していますが、学習プロセスは依然としてバックプロパゲーションなどの数値処理に最適化された方法に依存しており、物理的な実装には適していません。

日本の NTT デバイス技術研究所 (NTT デバイス技術研究所) と東京大学の研究チームは、ダイレクト フィードバック アライメント (DFA) と呼ばれる手法を拡張しました。物理的な深層学習を実証するためのトレーニング アルゴリズム。 元のアルゴリズムとは異なり、提案された方法は、代替の非線形活性化を伴うランダムな投影に基づいています。したがって、物理ニューラル ネットワークは、物理システムとその勾配についての知識がなくてもトレーニングできます。さらに、このトレーニングの計算は、スケーラブルな物理ハードウェア上でシミュレートできます。

研究者らは、ディープ・リザーバー・コンピューターと呼ばれる光電子リカレント・ニューラル・ネットワークを使用した概念実証を実証しました。ベンチマークで競争力のあるパフォーマンスを備えた高速コンピューティングの可能性が実証されています。その結果は、ニューロモーフィック コンピューティングのトレーニングと高速化のための実用的なソリューションを提供します。

研究のタイトルは「生物学的にインスピレーションを得たトレーニング手法を使用した物理ディープラーニング: 物理ハードウェアに対する勾配のないアプローチ」で、2022 年 12 月 26 日に「」でリリースされました。 ネイチャーコミュニケーションズ」。

物理ディープラーニング

画像処理、音声認識、ゲームなどにおける人工ニューラル ネットワーク (ANN) ベースの機械学習の記録破りのパフォーマンスに成功その卓越した能力を発揮した。これらのアルゴリズムは人間の脳の仕組みに似ていますが、基本的には従来のフォン ノイマン コンピューティング ハードウェアを使用してソフトウェア レベルで実装されます。しかし、このようなデジタルコンピューティングベースの人工ニューラルネットワークは、エネルギー消費と処理速度の点で問題を抱えています。これらの問題は、人工ニューラル ネットワークの実装に代替の物理プラットフォームを使用する動機となります。

興味深いことに、受動的な物理ダイナミクスであっても、ランダムに接続された ANN の計算リソースとして使用できます。物理リザーバー コンピューター (RC) またはエクストリーム ラーニング マシン (ELM) として知られるこのフレームワークの実装の容易さにより、実現可能な材料の選択肢とそのアプリケーションの範囲が大幅に広がります。このように物理的に実装されたニューラル ネットワーク (PNN) は、タスク固有の計算負荷を物理システムにアウトソーシングできます。

より深い物理ネットワークを構築することは、ネットワーク表現力を飛躍的に拡張できるため、パフォーマンスをさらに向上させるための有望な方向性です。これにより、さまざまな物理プラットフォームを使用したディープ PNN の提案が動機付けられます。彼らのトレーニングは基本的に、ソフトウェアベースの ANN で大きな成功を収めているバックプロパゲーション (BP) と呼ばれる方法に依存しています。ただし、BP は次の点で PNN には適していません。まず、BP 操作の物理的な実装は依然として複雑であり、スケーラブルではありません。第二に、BP では物理システム全体を正確に理解する必要があります。さらに、BP を RC に適用すると、これらの要件は物理 RC の固有の特性、つまりブラックボックスの物理確率ネットワークを正確に理解してシミュレートする必要があるという特性を損なうことになります。

PNN における BP と同様に、生物学的ニューラル ネットワークにおける BP の操作の難しさは脳科学コミュニティによって指摘されており、脳における BP の合理性は常に疑問視されてきました。これらの考慮事項は、生物学的に健全なトレーニング アルゴリズムの開発につながりました。

最近の有望な方向性は、ダイレクト フィードバック アライメント (DFA) です。このアルゴリズムでは、最終出力層エラー信号の固定ランダム線形変換を使用して、逆エラー信号を置き換えます。したがって、この方法はエラー信号の層ごとの伝播や重みの知識を必要としません。さらに、DFA は最新の大規模ネットワーク モデルに拡張可能であると報告されています。この生物学的に動機付けられたトレーニングの成功は、BP よりも PNN をトレーニングするのに適した方法があることを示唆しています。ただし、DFA は依然としてトレーニングのために非線形関数 f(x) の導関数 f'(a) を必要とするため、物理システムへの DFA 法の適用が妨げられます。したがって、DFA のより大きなスケーリングは PNN アプリケーションにとって重要です。

DFA と物理学におけるディープ ラーニングの強化

ここでは、研究者が DFA アルゴリズムを強化することによって物理学におけるディープ ラーニングを実証しています。強化された DFA では、標準 DFA の物理的非線形活性化 f'(a) の導関数を任意の非線形 g(a) に置き換え、パフォーマンスが g(a) の選択に対してロバストであることを示します。この機能強化により、f'(a) を正確にモデル化する必要がなくなりました。提案された方法は、任意の非線形活性化を伴う並列確率的投影に基づいているため、物理的な ELM または RC の概念と同じ方法で物理システム上でトレーニング計算を実行できます。これにより、推論とトレーニングの物理的な高速化が可能になります。

生物学にヒントを得たトレーニング方法を使用した物理ディープラーニング: 物理ハードウェアへの勾配のないアプローチ

#図: PNN の概念と、BP および拡張 DFA によるトレーニング。 (出典: 論文)

#概念実証を実証するために、研究者らは FPGA 支援の光電子ディープ物理 RC をワークベンチとして構築しました。ベンチトップは使いやすく、ソフトウェア レベルのアップデートのみでさまざまな物理プラットフォームに適用できますが、大規模で複雑な最先端のシステムに匹敵するパフォーマンスを実現します。

生物学にヒントを得たトレーニング方法を使用した物理ディープラーニング: 物理ハードウェアへの勾配のないアプローチ

図: DFA トレーニングが強化されたオプトエレクトロニクス深度 RC システム。 (出典:論文)

# また、デジタル処理時間を含めた全体の処理時間を比較し、トレーニングプロセスの物理的な高速化の可能性を検討した。見つかった。

生物学にヒントを得たトレーニング方法を使用した物理ディープラーニング: 物理ハードウェアへの勾配のないアプローチ

#図: 光電子ディープ RC システムの性能。 (出典: 論文)

RC ベンチの処理時間の予算の内訳は次のとおりです: FPGA 処理 (データ転送、メモリ割り当て、および DAC/ADC) ~92% ; デジタル処理の 8% は前処理/後処理に使用されます。したがって、現段階では、FPGA と CPU での数値計算が処理時間の大部分を占めています。これは、オプトエレクトロニクス ベンチが非線形遅延線のみを使用して 1 つのリザーバーを実装しているためであり、これらの制限は、将来的には完全に並列で全光学式のコンピューティング ハードウェアを使用することで緩和される可能性があります。見てわかるように、CPU と GPU での計算ではノード数が O(N^2) の傾向を示していますが、ベンチトップでは O(N) を示していますが、これはデータ転送のボトルネックが原因です。

CPU 外部の物理的加速度は、BP アルゴリズムと拡張 DFA アルゴリズムでそれぞれ N ~5,000 と ~12,000 で観察されます。ただし、計算速度の点では、GPU のメモリ制限のため、GPU に対する有効性は直接観察されていません。 GPU の傾向を推定すると、N ~80,000 で GPU を超える物理速度の向上が観察されます。私たちの知る限り、これはトレーニング プロセス全体の最初の比較であり、PNN を使用したフィジカル トレーニングの高速化の最初のデモンストレーションです。

提案された方法の他のシステムへの適用可能性を検討するために、広く研究されているフォトニック ニューラル ネットワークを使用して数値シミュレーションを実行しました。さらに、実験的に実証された遅延ベースの RC は、さまざまな物理システムに適していることが示されています。物理システムのスケーラビリティに関して、深いネットワークを構築する際の主な問題は、固有のノイズです。ノイズの影響は数値シミュレーションによって研究されます。このシステムはノイズに対して強いことが判明しました。

提案されたアプローチのスケーラビリティと制限

ここでは、より最新のモデルに対する DFA ベースのアプローチのスケーラビリティについて検討します。実用的な深層学習に最も一般的に使用されるモデルの 1 つは、深層接続畳み込みニューラル ネットワーク (CNN) です。ただし、DFA アルゴリズムを標準の CNN に適用するのは難しいことが報告されています。したがって、提案された方法を単純な方法で畳み込み PNN に適用することは困難である可能性があります。

SNN への適合性も、シミュレーション ハードウェアの実装を考慮した重要なトピックです。 DFA ベースのトレーニングの SNN への適用可能性が報告されており、これは、この研究で提案された強化された DFA によりトレーニングが容易になる可能性があることを意味します。

DFA ベースのアルゴリズムは、単純な MLP や RC よりも実用的なモデルに拡張できる可能性がありますが、DFA ベースのトレーニングをそのようなネットワークに適用する有効性はまだ不明です。ここでは、この研究の追加作業として、上記のモデル (MLP-Mixer、Vision transformer (ViT)、ResNet、および SNN) に対する DFA ベースのトレーニング (DFA 自体および拡張 DFA) のスケーラビリティを調査します。 DFA ベースのトレーニングは、探索的な実践モデルに対しても効果的であることがわかりました。 DFA ベースのトレーニングで達成できる精度は本質的に BP トレーニングの精度よりも低いですが、モデルやアルゴリズムを調整することでパフォーマンスを向上させることができます。特に、DFA と強化された DFA の精度は、調査したすべての実験設定で同等であり、DFA 自体のさらなる改善が強化された DFA の改善に直接貢献することを示唆しています。結果は、この方法が単純な MLP モデルや RC モデルだけでなく、PNN の実用的なモデルの将来の実装にも拡張できることを示しています。

表 1: 拡張 DFA の実際のネットワーク モデルへの適用性。 (出典: 論文)

生物学にヒントを得たトレーニング方法を使用した物理ディープラーニング: 物理ハードウェアへの勾配のないアプローチ

物理ハードウェアにおける BP と DFA

一般的には、次のように言えます。 BP は計算グラフ内のすべての情報を必要とするため、物理ハードウェアに実装するのは非常に困難です。したがって、物理ハードウェアでのトレーニングは常に計算シミュレーションを通じて行われており、これには多額の計算コストがかかります。さらに、モデルと実際のシステムとの差異により精度が低下します。対照的に、拡張 DFA では、物理システムに関する正確な事前知識は必要ありません。したがって、ディープ PNN では、精度の点で、DFA ベースの方法が BP ベースの方法よりも効果的です。さらに、物理ハードウェアを使用して計算を高速化することもできます。

さらに、DFA トレーニングでは、レイヤーごとに計算される逐次的なエラー伝播は必要ありません。これは、各レイヤーのトレーニングを並行して実行できることを意味します。したがって、より最適化された並列 DFA 実装は、より大幅な高速化につながる可能性があります。これらの独自の特性は、特に物理ハードウェアに基づくニューラル ネットワークに対する DFA ベースの手法の有効性を示しています。一方で、強化された DFA トレーニング済みモデルの精度は、BP トレーニング済みモデルの精度よりもまだ劣っています。 DFA ベースのトレーニングの精度をさらに向上させることは今後の課題です。

さらなる物理の高速化

物理実装では、ノード数が大きい場合の RC ループ処理の高速化を示します。ただし、その利点はまだ限られており、さらなる改善が必要です。現在のプロトタイプの処理時間は、FPGA へのデータ転送とメモリ割り当てとして表されます。したがって、すべてのプロセスを FPGA に統合すると、実験の柔軟性を犠牲にしてパフォーマンスが大幅に向上します。さらに、将来的には、航空光学方式により伝送コストが大幅に削減されるでしょう。大規模な光集積化とオンチップ集積化により、光コンピューティング自体のパフォーマンスがさらに向上します。

以上が生物学にヒントを得たトレーニング方法を使用した物理ディープラーニング: 物理ハードウェアへの勾配のないアプローチの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。