ホームページ > 記事 > テクノロジー周辺機器 > AI はあなたをはっきりと認識しました、YOLO+ByteTrack+マルチラベル分類ネットワーク
今日は歩行者属性分析システムについて紹介します。歩行者はビデオまたはカメラのビデオ ストリームから識別でき、各人の属性をマークできます。
#認識される属性には次の 10 個のカテゴリが含まれます 一部のカテゴリには複数の属性があります。体の向きが次の場合:前面、側面、背面、つまり最終トレーニングには 26 個の属性があります。 このようなシステムを実装するには、次の 3 つの手順が必要です。001.jpg010 002.jpg100 003.jpg100label 1 つの位置のみが 1 です。 今日トレーニングするマルチラベル分類ネットワークは、複数のカテゴリを同時に含む画像です。ラベルの形式は次のとおりです:
001.jpg011 002.jpg111 003.jpg100label には複数の位置を含めることができます1の。 このようなネットワークをトレーニングするには 2 つのオプションがあります。 1 つは、各カテゴリを単一ラベルの分類として扱い、損失を個別に計算し、合計を要約し、ネットワーク パラメーターを更新するための勾配を計算することです。 もう 1 つは直接トレーニングできますが、ResNet50 を例としてネットワークの詳細に注意する必要があります。
resnet50 = ResNet50(include_top=False, weights='imagenet') # 迁移学习,不重新训练卷积层 for layer in resnet50.layers: layer.trainable = False # 新的全连接层 x = Flatten()(resnet50.output) x = Dense(1024)(x) x = Activation('relu')(x) x = BatchNormalization()(x) x = Dropout(0.5)(x) # 输出 26 个属性的多分类标签 x = Dense(26, activatinotallow='sigmoid')(x) model = Model(inputs = resnet50.input, outputs=x)最終出力層の活性化関数はシグモイドである必要があります。各属性は個別に計算する必要があります。同様に、トレーニング中の損失関数も binary_crossentropy を使用する必要があります。 実際、上記 2 つの方法の原理は似ていますが、開発ワークロードは異なります。 ここでは便宜上、トレーニングに PaddleCls を使用します。 Paddle の設定はシンプルですが、独自のルールに従うことしかできず、カスタマイズするのがさらに面倒な、ややブラックボックス的な欠点があります。 モデル トレーニングでは PA100K データ セットを使用します。PA100K データ セットで定義された元のラベルは Paddle と同じ意味を持ちますが、順序が異なることに注意してください。 例: 元のラベルの 1 桁目はラベルが女性かどうかを表しますが、Paddle では 1 桁目でラベルが帽子をかぶっているかどうかを表し、22 桁目でラベルが女性かどうかを表す必要があります。 #Paddle の要件に応じて元のラベルの位置を調整できるので、後で推論しやすくなります。 PaddleClas のダウンロード
git clone https://github.com/PaddlePaddle/PaddleClas
DataLoader: Train: dataset: name: MultiLabelDataset image_root: "dataset/pa100k/" #指定训练AI はあなたをはっきりと認識しました、YOLO+ByteTrack+マルチラベル分類ネットワーク所在根路径 cls_label_path: "dataset/pa100k/train_list.txt" #指定训练列表文件位置 label_ratio: True transform_ops: Eval: dataset: name: MultiLabelDataset image_root: "dataset/pa100k/" #指定评估AI はあなたをはっきりと認識しました、YOLO+ByteTrack+マルチラベル分類ネットワーク所在根路径 cls_label_path: "dataset/pa100k/val_list.txt" #指定评估列表文件位置 label_ratio: True transform_ops:train_list.txt 形式は
00001.jpg0,0,1,0,....構成後、直接トレーニングできます
python3 tools/train.py -c ./ppcls/configs/PULC/person_attribute/PPLCNet_x1_0.yamlトレーニング後、モデルをエクスポートします
python3 tools/export_model.py -c ./ppcls/configs/PULC/person_attribute/PPLCNet_x1_0.yaml -o Global.pretrained_model=output/PPLCNet_x1_0/best_model -o Global.save_inference_dir=deploy/models/PPLCNet_x1_0_person_attribute_inferエクスポートされた結果~/.paddleclas/inference_model/PULC/person_attribute/ ディレクトリに配置されます。 PaddleCls が提供する関数を使用して、
import paddleclas model = paddleclas.PaddleClas(model_name="person_attribute") result = model.predict(input_data="./test_imgs/000001.jpg") print(result)for を直接呼び出すことができます。出力 結果は次のとおりです。
[{'attributes': ['Female', 'Age18-60', 'Front', 'Glasses: False', 'Hat: False', 'HoldObjectsInFront: True', 'ShoulderBag', 'Upper: ShortSleeve', 'Lower:Trousers', 'No boots'], 'output': [0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 1, 0, 1, 0, 1, 0, 1, 1, 0, 0], 'filename': './test_imgs/000001.jpg'}]モデル トレーニング プロセスはここで終了し、プロジェクト全体のデータ セットとソース コードがパッケージ化されました。
以上がAI はあなたをはっきりと認識しました、YOLO+ByteTrack+マルチラベル分類ネットワークの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。