畳み込み層 1 の最初の層、畳み込みカーネルの数は 96、畳み込み層 2 の 2 番目の層、畳み込み数は 256、畳み込み 3 の 3 番目の層、入力は 2 番目です。層の出力、畳み込みカーネルの数は 384、畳み込み 4 の 4 層目、入力は 3 層目の出力、畳み込みカーネルの数は 384、畳み込み 5 の 5 層目、入力は出力4層目のコンボリューションカーネル数は256です。
このチュートリアルの動作環境: Windows 7 システム、Dell G3 コンピューター。
AlexNet ネットワークは、2012 年の ImageNet コンテストのチャンピオンであるヒントンと彼の生徒であるアレックス クリジェフスキーによって設計されました。その年以降、優れた vgg や GoogleLeNet など、より多くのより深いニューラル ネットワークが提案されました。公式に提供されているデータ モデルの精度は 57.1% に達し、上位 1 ~ 5 は 80.2% に達します。これは、従来の機械学習分類アルゴリズムとしてはすでに非常に優れています。 #ネットワーク構造分析
上の図は、2 つの GPU サーバーを使用した caffe の alexnet のネットワーク構造を示しています。すべてが 2 つのフローチャートで表示されます。 AlexNet のネットワーク モデルは次のように解釈されます:
解釈は次のようになります:
第一层:卷积层1,输入为 224×224×3 224 \times 224 \times 3224×224×3的图像,卷积核的数量为96,论文中两片GPU分别计算48个核; 卷积核的大小为 11×11×3 11 \times 11 \times 311×11×3; stride = 4, stride表示的是步长, pad = 0, 表示不扩充边缘;卷积后的图形大小是怎样的呢? wide = (224 + 2 * padding - kernel_size) / stride + 1 = 54height = (224 + 2 * padding - kernel_size) / stride + 1 = 54dimention = 96然后进行 (Local Response Normalized), 后面跟着池化pool_size = (3, 3), stride = 2, pad = 0 最终获得第一层卷积的feature map最终第一层卷积的输出为 第二层:卷积层2, 输入为上一层卷积的feature map, 卷积的个数为256个,论文中的两个GPU分别有128个卷积核。卷积核的大小为:5×5×48 5 \times 5 \times 485×5×48; pad = 2, stride = 1; 然后做 LRN, 最后 max_pooling, pool_size = (3, 3), stride = 2; 第三层:卷积3, 输入为第二层的输出,卷积核个数为384, kernel_size = (3×3×256 3 \times 3 \times 2563×3×256), padding = 1, 第三层没有做LRN和Pool 第四层:卷积4, 输入为第三层的输出,卷积核个数为384, kernel_size = (3×3 3 \times 33×3), padding = 1, 和第三层一样,没有LRN和Pool 第五层:卷积5, 输入为第四层的输出,卷积核个数为256, kernel_size = (3×3 3 \times 33×3), padding = 1。然后直接进行max_pooling, pool_size = (3, 3), stride = 2;第6,7,8层是全连接层,每一层的神经元的个数为4096,最终输出softmax为1000,因为上面介绍过,ImageNet这个比赛的分类个数为1000。全连接层中使用了RELU和Dropout。図面を使用するcaffe に付属するツール (caffe/python/draw_net.py) と、caffe/models/bvlc_alexnet/ ディレクトリの下に train_val.prototxt によって描画されるネットワーク構造図は次のとおりです。
アルゴリズム革新ポイント
(3) CNN で重複最大プーリングを使用します。以前は、CNN では平均プーリングが一般的に使用されており、AlexNet はすべて、平均プーリングによるぼやけ効果を避けるために最大プーリングを使用していました。さらに、AlexNet は、ステップ長がプーリング カーネルのサイズより小さいことを提案しています。これにより、プーリング層の出力間に重複とカバレッジが生じ、機能の豊富さが向上します。
(4) LRN 層は、局所ニューロンの活動に対する競合メカニズムを作成し、応答が大きい値を相対的に大きくし、フィードバックが小さい他のニューロンを抑制することでモデルの汎化能力を高めることを提案しています。 。 (5) マルチ GPU トレーニングによりネットワーク トレーニングの規模を拡大できます
(6) 100 万レベルの ImageNet データ画像入力 AlexNet では 3 つのデータ拡張手法が使用されます:
平行移動変換 (クロップ);
反射変換 (反転);
照明と色の変換 (カラー ジッタリング): 最初に画像をランダムに平行移動し、次に水平方向に反転します。テストでは、まず左上、右上、左下、右下、中央で 5 つの変換変換を実行し、次に反転後の結果を平均します。
概要は次のとおりです:
ReLU 活性化関数を使用する;
過学習を防ぐために Dropout を提案する;
- データ拡張を使用してデータセットを強化する (データ拡張) ;
- 画像の水平反転、ランダムなトリミング、変換変換、色変換、照明変換など
- 複数の GPU を使用するトレーニング用;
- LRN ローカル正規化の使用;
オーバーラップ プーリング (3*3 プーリング カーネル) を使用します。
- Caffe フレームワークでのトレーニング データセットを準備し、Alexnet ネットワークの train.prototxt を変更し、ソルバーを構成し、デプロイします。 prototxt ファイルを開き、新しい train .sh スクリプトを作成してトレーニングを開始します。
-
コンピュータ関連の知識について詳しくは、
FAQ 列をご覧ください。
以上がalexnet ネットワーク構造の詳細な説明の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

MinGW - Minimalist GNU for Windows
このプロジェクトは osdn.net/projects/mingw に移行中です。引き続きそこでフォローしていただけます。 MinGW: GNU Compiler Collection (GCC) のネイティブ Windows ポートであり、ネイティブ Windows アプリケーションを構築するための自由に配布可能なインポート ライブラリとヘッダー ファイルであり、C99 機能をサポートする MSVC ランタイムの拡張機能が含まれています。すべての MinGW ソフトウェアは 64 ビット Windows プラットフォームで実行できます。

DVWA
Damn Vulnerable Web App (DVWA) は、非常に脆弱な PHP/MySQL Web アプリケーションです。その主な目的は、セキュリティ専門家が法的環境でスキルとツールをテストするのに役立ち、Web 開発者が Web アプリケーションを保護するプロセスをより深く理解できるようにし、教師/生徒が教室環境で Web アプリケーションを教え/学習できるようにすることです。安全。 DVWA の目標は、シンプルでわかりやすいインターフェイスを通じて、さまざまな難易度で最も一般的な Web 脆弱性のいくつかを実践することです。このソフトウェアは、

EditPlus 中国語クラック版
サイズが小さく、構文の強調表示、コード プロンプト機能はサポートされていません

SublimeText3 Linux 新バージョン
SublimeText3 Linux 最新バージョン

SublimeText3 中国語版
中国語版、とても使いやすい
