検索
ホームページよくある問題alexnet ネットワーク構造の詳細な説明

畳み込み層 1 の最初の層、畳み込みカーネルの数は 96、畳み込み層 2 の 2 番目の層、畳み込み数は 256、畳み込み 3 の 3 番目の層、入力は 2 番目です。層の出力、畳み込みカーネルの数は 384、畳み込み 4 の 4 層目、入力は 3 層目の出力、畳み込みカーネルの数は 384、畳み込み 5 の 5 層目、入力は出力4層目のコンボリューションカーネル数は256です。

このチュートリアルの動作環境: Windows 7 システム、Dell G3 コンピューター。

AlexNet ネットワークは、2012 年の ImageNet コンテストのチャンピオンであるヒントンと彼の生徒であるアレックス クリジェフスキーによって設計されました。その年以降、優れた vgg や GoogleLeNet など、より多くのより深いニューラル ネットワークが提案されました。公式に提供されているデータ モデルの精度は 57.1% に達し、上位 1 ~ 5 は 80.2% に達します。これは、従来の機械学習分類アルゴリズムとしてはすでに非常に優れています。 #ネットワーク構造分析

alexnet ネットワーク構造の詳細な説明

上の図は、2 つの GPU サーバーを使用した caffe の alexnet のネットワーク構造を示しています。すべてが 2 つのフローチャートで表示されます。 AlexNet のネットワーク モデルは次のように解釈されます:

alexnet ネットワーク構造の詳細な説明

解釈は次のようになります: alexnet ネットワーク構造の詳細な説明

第一层:卷积层1,输入为 224×224×3 224 \times 224 \times 3224×224×3的图像,卷积核的数量为96,论文中两片GPU分别计算48个核; 卷积核的大小为 11×11×3 11 \times 11 \times 311×11×3; stride = 4, stride表示的是步长, pad = 0, 表示不扩充边缘;卷积后的图形大小是怎样的呢?
wide = (224 + 2 * padding - kernel_size) / stride + 1 = 54height = (224 + 2 * padding - kernel_size) / stride + 1 = 54dimention = 96然后进行 (Local Response Normalized), 后面跟着池化pool_size = (3, 3), stride = 2, pad = 0 最终获得第一层卷积的feature map最终第一层卷积的输出为

第二层:卷积层2, 输入为上一层卷积的feature map, 卷积的个数为256个,论文中的两个GPU分别有128个卷积核。卷积核的大小为:5×5×48 5 \times 5 \times 485×5×48; pad = 2, stride = 1; 然后做 LRN, 最后 max_pooling, pool_size = (3, 3), stride = 2;
第三层:卷积3, 输入为第二层的输出,卷积核个数为384, kernel_size = (3×3×256 3 \times 3 \times 2563×3×256), padding = 1, 第三层没有做LRN和Pool

第四层:卷积4, 输入为第三层的输出,卷积核个数为384, kernel_size = (3×3 3 \times 33×3), padding = 1, 和第三层一样,没有LRN和Pool

第五层:卷积5, 输入为第四层的输出,卷积核个数为256, kernel_size = (3×3 3 \times 33×3), padding = 1。然后直接进行max_pooling, pool_size = (3, 3), stride = 2;第6,7,8层是全连接层,每一层的神经元的个数为4096,最终输出softmax为1000,因为上面介绍过,ImageNet这个比赛的分类个数为1000。全连接层中使用了RELU和Dropout。

図面を使用するcaffe に付属するツール (caffe/python/draw_net.py) と、caffe/models/bvlc_alexnet/ ディレクトリの下に train_val.prototxt によって描画されるネットワーク構造図は次のとおりです。

alexnet ネットワーク構造の詳細な説明アルゴリズム革新ポイント

(1) CNNの活性化関数としてReLUを利用することに成功し、その効果が深層ネットワークにおいてシグモイドを超えることを検証し、CNNの勾配分散問題の解決に成功しました。より深いネットワークではシグモイド。 ReLU 活性化関数はずっと前に提案されましたが、それが引き継がれるようになったのは、AlexNet の出現まででした。

(2) モデルの過学習を避けるために、ドロップアウトを使用してトレーニング中に一部のニューロンをランダムに無視します。 Dropout については別の論文でも議論されていますが、AlexNet によって実用化されており、実践を通じてその効果が確認されています。 AlexNet では、Dropout は主に最後のいくつかの完全に接続された層で使用されます。

alexnet ネットワーク構造の詳細な説明(3) CNN で重複最大プーリングを使用します。以前は、CNN では平均プーリングが一般的に使用されており、AlexNet はすべて、平均プーリングによるぼやけ効果を避けるために最大プーリングを使用していました。さらに、AlexNet は、ステップ長がプーリング カーネルのサイズより小さいことを提案しています。これにより、プーリング層の出力間に重複とカバレッジが生じ、機能の豊富さが向上します。

(4) LRN 層は、局所ニューロンの活動に対する競合メカニズムを作成し、応答が大きい値を相対的に大きくし、フィードバックが小さい他のニューロンを抑制することでモデルの汎化能力を高めることを提案しています。 。 (5) マルチ GPU トレーニングによりネットワーク トレーニングの規模を拡大できます

(6) 100 万レベルの ImageNet データ画像入力 AlexNet では 3 つのデータ拡張手法が使用されます:

平行移動変換 (クロップ);

反射変換 (反転);

照明と色の変換 (カラー ジッタリング): 最初に画像をランダムに平行移動し、次に水平方向に反転します。テストでは、まず左上、右上、左下、右下、中央で 5 つの変換変換を実行し、次に反転後の結果を平均します。

概要は次のとおりです:

ReLU 活性化関数を使用する;

過学習を防ぐために Dropout を提案する;

    データ拡張を使用してデータセットを強化する (データ拡張) ;
  1. 画像の水平反転、ランダムなトリミング、変換変換、色変換、照明変換など

  2. 複数の GPU を使用するトレーニング用;

上位層の結果をチャネル次元に従って 2 つの部分に分割し、それぞれ 2 つの GPU に送信します。例: 27×27×96 ピクセル レイヤーの出力前のレイヤーによる (27×27×48 の 2 つのグループに分割されます。ピクセル レイヤーは、操作のために 2 つの異なる GPU に配置されます);

    LRN ローカル正規化の使用;
オーバーラップ プーリング (3*3 プーリング カーネル) を使用します。

  1. Caffe フレームワークでのトレーニング

  2. データセットを準備し、Alexnet ネットワークの train.prototxt を変更し、ソルバーを構成し、デプロイします。 prototxt ファイルを開き、新しい train .sh スクリプトを作成してトレーニングを開始します。
  3. コンピュータ関連の知識について詳しくは、

    FAQ
  4. 列をご覧ください。

以上がalexnet ネットワーク構造の詳細な説明の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

MinGW - Minimalist GNU for Windows

MinGW - Minimalist GNU for Windows

このプロジェクトは osdn.net/projects/mingw に移行中です。引き続きそこでフォローしていただけます。 MinGW: GNU Compiler Collection (GCC) のネイティブ Windows ポートであり、ネイティブ Windows アプリケーションを構築するための自由に配布可能なインポート ライブラリとヘッダー ファイルであり、C99 機能をサポートする MSVC ランタイムの拡張機能が含まれています。すべての MinGW ソフトウェアは 64 ビット Windows プラットフォームで実行できます。

DVWA

DVWA

Damn Vulnerable Web App (DVWA) は、非常に脆弱な PHP/MySQL Web アプリケーションです。その主な目的は、セキュリティ専門家が法的環境でスキルとツールをテストするのに役立ち、Web 開発者が Web アプリケーションを保護するプロセスをより深く理解できるようにし、教師/生徒が教室環境で Web アプリケーションを教え/学習できるようにすることです。安全。 DVWA の目標は、シンプルでわかりやすいインターフェイスを通じて、さまざまな難易度で最も一般的な Web 脆弱性のいくつかを実践することです。このソフトウェアは、

EditPlus 中国語クラック版

EditPlus 中国語クラック版

サイズが小さく、構文の強調表示、コード プロンプト機能はサポートされていません

SublimeText3 Linux 新バージョン

SublimeText3 Linux 新バージョン

SublimeText3 Linux 最新バージョン

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい