Heim > Artikel > Backend-Entwicklung > Wie verwende ich die Bildsemantiksegmentierungstechnologie in Python?
Mit der kontinuierlichen Weiterentwicklung der Technologie der künstlichen Intelligenz hat sich die Bildsemantiksegmentierungstechnologie zu einer beliebten Forschungsrichtung im Bereich der Bildanalyse entwickelt. Bei der semantischen Bildsegmentierung segmentieren wir verschiedene Bereiche in einem Bild und klassifizieren jeden Bereich, um ein umfassendes Verständnis des Bildes zu erreichen.
Python ist eine bekannte Programmiersprache. Aufgrund seiner leistungsstarken Datenanalyse- und Datenvisualisierungsfunktionen ist es die erste Wahl im Bereich der Technologieforschung im Bereich der künstlichen Intelligenz. In diesem Artikel wird die Verwendung der Bildsemantiksegmentierungstechnologie in Python vorgestellt.
Bevor Sie lernen, die Bildsemantik-Segmentierungstechnologie in Python zu verwenden, müssen Sie über einige Grundkenntnisse über Deep Learning, Convolutional Neural Network (CNN) und Bildverarbeitung verfügen. Wenn Sie ein erfahrener Python-Entwickler sind, aber keine Erfahrung mit Deep Learning und CNN-Modellen haben, wird empfohlen, sich zunächst einige entsprechende Kenntnisse anzueignen.
Um die semantische Bildsegmentierungstechnologie nutzen zu können, benötigen wir einige vorab trainierte Modelle. Es gibt viele beliebte Deep-Learning-Frameworks wie Keras, PyTorch und TensorFlow, die vorab trainierte Modelle für Entwickler bereitstellen.
In diesem Artikel verwenden wir das TensorFlow-Framework und sein globales Bildsemantiksegmentierungsmodell – DeepLab-v3+ – sowie eine Python-Bibliothek, die zum Verarbeiten von Bildern verwendet werden kann – die Pillow-Bibliothek.
Wir können die Bibliotheken, die wir verwenden müssen, über den folgenden Befehl installieren:
pip install tensorflow==2.4.0 pip install Pillow
DeepLab-v3+ ist ein effizientes tiefes Faltungs-Neuronales Netzwerkmodell für die Bildsemantiksegmentierung. Es verfügt über eine Reihe fortschrittlicher Technologien, darunter erweiterte Faltung (Dilated Convolution), mehrskalige Datenaggregation und bedingtes Zufallsfeld (Conditional Random Field, CRF) usw.
Die Pillow-Bibliothek bietet einige praktische Tools zum Verarbeiten und Lesen von Bilddateien. Als Nächstes verwenden wir die Image-Klasse aus der Pillow-Bibliothek, um eine Bilddatei zu lesen. Der Code sieht so aus:
from PIL import Image im = Image.open('example.jpg')
Hier können wir example.jpg durch unseren eigenen Bilddateinamen ersetzen.
Durch die Verwendung des DeepLab-v3+-Modells und des von uns eingelesenen Bildes können wir ein detailliertes Ergebnis der semantischen Bildsegmentierung erhalten. Um das vorab trainierte DeepLab-v3+-Modell verwenden zu können, müssen wir die Modellgewichtsdatei herunterladen. Es ist auf der offiziellen TensorFlow-Modellseite zu finden.
# 导入预训练的 DeepLab-v3+ 模型 from tensorflow.keras.models import Model from tensorflow.keras.layers import Input from tensorflow.keras.applications import MobileNetV2 from tensorflow.keras.layers import Conv2DTranspose, Concatenate, Activation, MaxPooling2D, Conv2D, BatchNormalization, Dropout def create_model(num_classes): # 加载 MobileNetV2 预训练模型 base_model = MobileNetV2(input_shape=(256, 256, 3), include_top=False, weights='imagenet') # 获取对应层输出的张量 low_level_features = base_model.get_layer('block_1_expand_relu').output x = base_model.get_layer('out_relu').output # 通过使用反卷积尺寸进行上采样和空洞卷积,构建 DeepLab-v3+ 系统,并针对特定的数据集来训练其分类器 x = Conv2D(256, (1, 1), activation='relu', padding='same', name='concat_projection')(x) x = Dropout(0.3)(x) x = Conv2DTranspose(128, (3, 3), strides=(2, 2), padding='same', name='decoder_conv0')(x) x = BatchNormalization(name='decoder_bn0')(x) x = Activation('relu', name='decoder_relu0')(x) x = Concatenate(name='decoder_concat0')([x, low_level_features]) x = Conv2D(128, (1, 1), padding='same', name='decoder_conv1')(x) x = Dropout(0.3)(x) x = Conv2DTranspose(64, (3, 3), strides=(2, 2), padding='same', name='decoder_conv2')(x) x = BatchNormalization(name='decoder_bn2')(x) x = Activation('relu', name='decoder_relu2')(x) x = Conv2D(num_classes, (1, 1), padding='same', name='decoder_conv3')(x) x = Activation('softmax', name='softmax')(x) # 创建 Keras 模型,并返回它 model = Model(inputs=base_model.input, outputs=x) return model
Nachdem wir das Modell erfolgreich geladen haben, können wir mit der semantischen Segmentierung des Bildes beginnen. Der Code lautet wie folgt:
import numpy as np import urllib.request # 读取图像 urllib.request.urlretrieve('https://www.tensorflow.org/images/surf.jpg', 'image.jpg') image = Image.open('image.jpg') image_array = np.array(image) # 加载训练好的模型 model = create_model(num_classes=21) model.load_weights('deeplabv3_xception_tf_dim_ordering_tf_kernels.h5') print('模型加载成功。') # 将输入图像调整为模型所需形状,并进行语义分割 input_tensor = tf.convert_to_tensor(np.expand_dims(image_array, 0)) output_tensor = model(input_tensor) # 显示语义分割结果 import matplotlib.pyplot as plt parsed_results = output_tensor.numpy().squeeze() parsed_results = np.argmax(parsed_results, axis=2) plt.imshow(parsed_results) plt.show()
Nachdem Sie diesen Code ausgeführt haben, erhalten Sie eine neuronale Netzwerkausgabe mit einer Farbverteilung ähnlich dem gezeigten Beispiel.
In diesem Artikel haben wir die Verwendung der semantischen Bildsegmentierungstechnologie in Python vorgestellt und das vorab trainierte DeepLab-v3+-Modell erfolgreich geladen. Natürlich ist das hier verwendete Beispiel nur eine der Methoden, und unterschiedliche Forschungsrichtungen erfordern unterschiedliche Verarbeitungsmethoden. Wenn Sie interessiert sind, vertiefen Sie sich in diesen Bereich und nutzen Sie diese Techniken in Ihren eigenen Projekten.
Das obige ist der detaillierte Inhalt vonWie verwende ich die Bildsemantiksegmentierungstechnologie in Python?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!