>기술 주변기기 >일체 포함 >Mobilenetv2 모델로 이미지 분류 방법은 무엇입니까?

Mobilenetv2 모델로 이미지 분류 방법은 무엇입니까?

Lisa Kudrow
Lisa Kudrow원래의
2025-03-04 11:02:09999검색
Mobilenet은 스마트 폰의 출현을 지원하기 위해 만들어진 오픈 소스 모델입니다. CNN 아키텍처를 사용하여 이미지 분류 및 객체 감지와 같은 컴퓨터 비전 작업을 수행합니다. 이 아키텍처를 사용하는 모델은 일반적으로 많은 계산 비용과 하드웨어 리소스가 필요하지만 Mobilenet은 모바일 장치 및 임베딩과 함께 작동하도록 만들어졌습니다. 수년에 걸쳐이 모델은 다양한 실제 응용 프로그램에 사용되었습니다. 또한 깊이 분리 컨볼 루션을 사용하여 매개 변수를 줄이는 것과 같은 일부 기능이 있습니다. 따라서 모바일 장치의 제한된 하드웨어 리소스를 사용하면이 기술이 모델을 기능하게 만드는 데 도움이 될 수 있습니다. 우리는이 모델이 미리 훈련 된 예측 클래스를 사용하여 깊이를 가진 분류기 이미지를 사용하여 이미지를 효율적으로 분류하는 방법에 대해 논의 할 것입니다. 학습 목표

Mobilenet과 그 작업 원칙에 대해 배우십시오 Mobilenet의 아키텍처에 대한 통찰력을 얻으십시오 Mobilenet에서 추론을 실행하여 이미지 분류를 수행합니다 Mobilenet의 실제 응용 프로그램을 탐색하십시오

이 기사는 데이터 과학 블로그 톤의

의 일부로 출판되었습니다. > 목차
  • mobilenet의 작업 원리
  • 표준 코비블
  • 깊이와 포인트 컨볼 루션이 어떻게 작동합니까?
  • Mobilenet Architecure
  • 이 모델을 실행하는 방법? 입력 이미지

이미지 분류에 미리 훈련 된 모델을로드 입력 프로세싱 출력 이 모델의 적용

자주 묻는 질문 Mobilenet의 작업 원리 Mobilenet의 작동 원리는이 모델 구조에서 가장 중요한 부분 중 하나입니다. 이 모델을 구축하고 모바일 및 임베디드 장치에 적응할 수 있도록 사용하는 기술과 방법을 간략하게 설명합니다. 이 모델의 디자인은 CNN (Convolution Neural Network) 아키텍처를 활용하여 모바일 장치에서 작동 할 수 있습니다. 그러나이 아키텍처의 중요한 부분은 파라미터 수를 줄이기 위해 깊이 분리 가능한 컨볼 루션을 사용하는 것입니다. 이 방법은 두 가지 작업의 깊이와 지점별 컨볼 루션을 사용합니다 표준 코버션 표준 컨볼 루션 프로세스는 필터 (커널)로 시작합니다. 이 단계는 가장자리, 텍스처 또는 패턴과 같은 이미지 기능이 이미지에서 감지되는 곳입니다. 그 다음 이미지의 너비와 높이를 가로 질러 필터를 슬라이딩합니다. 그리고 각 단계에는 요소 측면 곱셈과 요약이 포함됩니다. 이것의 합은 단일 숫자를 제공하여 피처 맵을 형성합니다. 그것은 필터에 의해 감지 된 기능의 존재와 강도를 나타냅니다. . 그러나 이것은 높은 계산 비용과 매개 변수 수가 증가하므로 깊이 및 포인트 별 컨볼 루션이 필요합니다.

깊이와 지점 컨볼 루션은 어떻게 작동합니까? 깊이 컨볼 루션은 단일 필터를 입력 채널에 적용하는 반면, 점은 깊이 컨볼 루션의 출력을 결합하여 이미지에서 새로운 기능을 만듭니다. 따라서 여기서 차이점은 단일 필터 만 깊이 적용하면 곱셈 작업이 줄어들어 출력이 입력과 동일한 수의 채널을 갖는다는 것입니다. 이것은 포인트 컨볼 루션으로 이어집니다.

Pointwise Convolution은 기능을 결합하거나 확장하는 1 × 1 필터를 사용합니다. 이를 통해 모델이 채널 기능을 분배하여 새로운 기능 맵을 만드는 다양한 패턴을 학습 할 수 있습니다. 이를 통해 Pointwise Convolution은 출력 기능 맵에서 채널 수를 늘리거나 감소시킬 수 있습니다. Mobilenet Architecure 이 컴퓨터 비전 모델은 이미지 분류 및 객체 감지 작업을 수행하기 위해 CNN 아키텍처를 기반으로 구축되었습니다. 깊이있는 분리 가능한 컨볼 루션을 사용하는 것은이 모델을 가벼운 깊은 신경망의 구축을 허용하기 때문에 모바일 및 임베디드 장치에 적응하는 것입니다.
이 메커니즘은 리소스 제약을 충족시키기 위해 매개 변수 수와 대기 시간을 줄입니다. 아키텍처는 모델의 출력에서 ​​효율성과 정확성을 가능하게합니다. 이 모델의 두 번째 버전 (Mobilenetv2)은 향상으로 구축되었습니다. Mobilenet V2는 병목 현상이있는 역 잔차라고 불리는 특수 유형의 빌딩 블록을 도입했습니다. 이 블록은 처리 된 채널의 수를 줄여 모델을보다 효율적으로 만듭니다. 또한 병목 현상 층 간의 바로 가기가 포함되어 정보 흐름을 개선합니다. 마지막 층에서 표준 활성화 함수 (Relu)를 사용하는 대신 선형 활성화를 사용합니다. 이는 해당 단계에서 데이터가 공간 크기가 낮기 때문에 더 잘 작동합니다. Mobilenetv2 모델로 이미지 분류 방법은 무엇입니까?. 이 모델을 실행하는 방법? 이미지 분류 에이 모델을 사용하려면 몇 단계가 필요합니다. 모델은 내장 예측 클래스를 사용하여 입력 이미지를 수신하고 분류합니다. Mobilenet을 실행하는 방법에 대한 단계를 살펴 보겠습니다. 이미지 분류에 필요한 라이브러리 가져 오기 이 모델을 실행하려면 필수 모듈을 가져와야합니다. 이것은 변압기 라이브러리에서 이미지 프로세서 및 이미지 분류 모듈을 가져 오는 것으로 시작합니다. 그들은 이미지 전처리 및 미리 훈련 된 모델을로드하는 데 도움이됩니다. 또한 PIL은 이미지를 조작하는 데 사용되며 '요청'은 웹에서 이미지를 가져올 수 있습니다.

from transformers import AutoImageProcessor, AutoModelForImageClassification
from PIL import Image
import requests
입력 이미지 로딩 'image.open'함수는 PIL 라이브러리에서 파일 경로에서 이미지를로드하는 데 사용됩니다.이 경우 로컬 장치에서 업로드되었습니다. 또 다른 대안은 URL을 사용하여 이미지를 가져 오는 것입니다.
 image = Image.open('/content/imagef-ishfromunsplash-ezgif.com-webp-to-jpg-converter.jpg')

 이미지 분류를 위해 미리 훈련 된 모델을로드 <p>



아래 코드는 Mobilenetv2 사전 훈련 된 모델에서 '자동 이미지 프로세서'프로세스를 초기화합니다. 이 부분은 이미지를 모델에 공급하기 전에 이미지 사전 프로세싱을 처리합니다. 또한 두 번째 줄에서 볼 수 있듯이 코드는 이미지 분류를 위해 해당 Mobilenetv2 모델을로드합니다.



<img  src="/static/imghwm/default1.png" data-src="https://img.php.cn/upload/article/000/000/000/174105733394840.jpg" class="lazy" alt="Mobilenetv2 모델로 이미지 분류 방법은 무엇입니까?" >



<ing> 입력 처리 </ing></p>



<where>이 단계는 전처리 이미지가 Pytorch에 적합한 형식으로 변환되는 곳입니다. 그런 다음 모델을 통해 출력 로짓을 생성하여 SoftMax를 사용하여 확률로 변환됩니다.



<h3>



</h3> 출력 



<p>



이 코드는 모델의 출력 (로이트)에서 가장 높은 예측 점수를 가진 클래스를 찾아 모델의 구성에서 해당 레이블을 검색합니다. 그런 다음 예측 된 클래스 레이블을 인쇄합니다



<out> 다음은 출력입니다 : 



</out></p>  <pre class="brush:php;toolbar:false">preprocessor = AutoImageProcessor.from_pretrained("google/mobilenet_v2_1.0_224")
model = AutoModelForImageClassification.from_pretrained("google/mobilenet_v2_1.0_224")
다음은 Colab 파일에 대한 링크입니다.

이 모델의 적용 Mobilenet은 다양한 실제 사용 사례에서 응용 프로그램을 발견했습니다. 그리고 그것은 건강 관리를 포함한 다양한 분야에서 사용되었습니다. 이 모델의 일부 응용 프로그램은 다음과 같습니다

코비드 전염병 중에 Mobilenet은 흉부 X- 레이를 정상, 코비드 및 바이러스 성 폐렴으로 분류하는 데 사용되었습니다. 결과는 또한 매우 높은 정확도로 제공되었습니다 mobilenetv2는 또한 두 가지 주요 형태의 피부암을 감지하는데 효율적이었다. 이 혁신은 안정적인 인터넷 연결을 제공 할 수없는 영역에서 의료 서비스로 인해이 모델을 뛰어 넘었습니다.

농업 에서이 모델은 토마토 작물의 잎 질병을 감지하는 데 중요했습니다. 따라서 모바일 애플리케이션을 사용하면이 모델이 10 개의 일반적인 잎 질병을 감지하는 데 도움이 될 수 있습니다.

inputs = preprocessor(images=image, return_tensors="pt")
 
outputs = model(**inputs)
logits = outputs.logits
여기에서 모델을 확인할 수도 있습니다 : 링크 포장

Mobilenet은 Google 연구원이 효율성을 방해하지 않고 모바일 장치로 높은 계산 비용을 가진 모델을 가져 오는 Google 연구원의 마스터 클래스의 결과입니다. 이 모델은 모바일 애플리케이션에서만 이미지 분류 및 탐지를 생성 할 수있는 아키텍처를 기반으로 구축되었습니다. 의료 및 농업의 사용 사례는이 모델의 역량에 대한 증거입니다.

키 테이크 아웃 아키텍처에서 응용 프로그램에 이르기 까지이 모델의 작동 방식에 대한 몇 가지 이야기가 있습니다. 이 기사의 주요 내용은 다음과 같습니다
    향상된 아키텍처 : Mobilenet의 두 번째 버전은 Mobilenetv2에 거꾸로 잔차 및 병목 현상 레이어와 함께 제공됩니다. 이 개발은 경량 성능을 유지하면서 효율성과 정확성을 향상 시켰습니다.
  • 효율적인 모바일 최적화 :이 모델의 모바일 및 임베디드 설계 설계는 효과적인 성능을 제공하면서 낮은 계산 리소스를 제공한다는 것을 의미합니다. 실제 응용 프로그램 : Mobilenet은 의료 (예 : Covid-19 및 피부암 감지) 및 농업 (예 : 작물의 잎 질병 감지)에 성공적으로 사용되었습니다.
  • 이 기사에 나와있는 미디어는 Analytics Vidhya가 소유하지 않으며 저자의 재량에 따라 사용됩니다. 자주 묻는 질문
  • q1. Mobilenetv2를 다른 CNN 모델과 다른 이유는 무엇입니까? Mobilenetv2는 깊이있는 분리 가능한 컨볼 루션과 역 잔차를 사용하여 전통적인 CNN에 비해 모바일 및 임베디드 시스템에 더 효율적입니다. Mobilenetv2를 실시간 응용 프로그램에 사용할 수 있습니까? 
  • ans. Mobilenetv2는 저하 및 실시간 이미지 분류 작업에 최적화되어 모바일 및 에지 장치에 적합합니다. MobiLenetv2는 대형 모델에 비해 얼마나 정확합니까? 
ans. Mobilenetv2는 효율성에 최적화되어 있지만 더 큰 모델에 가까운 높은 정확도를 유지하므로 모바일 AI 애플리케이션에 강력한 선택이됩니다. 더 큰 모델에 비해 Mobilenetv2가 얼마나 정확합니까? Mobilenetv2는 효율성에 최적화되어 있지만 더 큰 모델에 가까운 높은 정확도를 유지하므로 모바일 AI 애플리케이션에 대한 강력한 선택입니다.

위 내용은 Mobilenetv2 모델로 이미지 분류 방법은 무엇입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.