.
차원의 저주 : 높은 차원은 데이터 포인트를 드물게하여 기계 학습 모델에 의한 패턴 인식을 방해합니다.
과적으로 : 모델은 기본 패턴 대신 노이즈를 배울 수 있습니다 계산 복잡성 :
데이터를 변환하지 않고 가장 관련성이 높은 기능을 선택합니다. 방법에는 필터, 래퍼 및 임베디드 메소드가 포함됩니다
기능 추출 : 원래의 조합에서 새로운 기능을 생성하여 데이터를 저차원 공간으로 변환합니다. 이것은 원래 기능이 상관 관계가 있거나 중복 될 때 유용합니다. PCA, LDA 및 비선형 방법은이 범주에 속합니다
2. 이미지 시각화 :
import numpy as np import matplotlib.pyplot as plt from sklearn.datasets import load_digits from sklearn.manifold import TSNE from sklearn.preprocessing import StandardScaler digits = load_digits() X = digits.data # (1797, 64) y = digits.target # (1797,) print("Data shape:", X.shape) print("Labels shape:", y.shape)
결론
faqs 일반적인 차원 감소 기술 : PCA 및 T-SNE PCA 감독 : 감독되지 않은. 치수 감소를 사용하는 시점 :
복잡성 감소, 개선 된 모델 성능 또는 시각화를 위해 고차원 데이터를 처리 할 때. 치수 감소의 주요 목표 :def plot_digits(images, labels, n_rows=2, n_cols=5): # ... (plotting code as before) ...중요한 정보를 보존하는 동안 기능 감소. 실제 응용 프로그램 :
텍스트 분류, 이미지 검색, 얼굴 인식, 신경 과학, 유전자 발현 분석.
위 내용은 치수 감소 이해의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!