在資料分析和機器學習領域, 原理因子分析 (Principal Component Analysis, PCA)是常用的線性降維演算法。 PCA透過找到資料的主成分來減少資料的維度,從而提高資料的可解釋性和計算效率。本文將透過一個Python實例來說明PCA的原理和應用。
首先,我們需要導入Python的相關函式庫,例如numpy、matplotlib、pandas、sklearn等。
import numpy as np import pandas as pd import matplotlib.pyplot as plt from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA
接下來,我們載入資料。這裡我們使用的是Iris鳶尾花資料集,這是一個標準的分類和聚類資料集,包括三個品種的鳶尾花。我們使用pandas庫中的read_csv()函數來讀取這個資料集:
data = pd.read_csv('iris.csv')
現在,我們需要將資料標準化。由於PCA是基於資料的協方差矩陣計算的,而協方差矩陣的大小和大小的順序是由資料中的變化量決定的。因此,在進行PCA分析之前,我們需要將所有特徵的範圍標準化成相同的大小。我們可以使用sklearn的StandardScaler來實現標準化。
scaler = StandardScaler() data_scaled = scaler.fit_transform(data)
接下來,我們可以使用numpy中的cov()方法來計算資料的協方差矩陣,這將作為PCA演算法的輸入。
cov_matrix = np.cov(data_scaled.T)
現在,我們可以使用PCA類別來找到資料的主成分。我們可以設定要保留的主成分數量。通常,我們選擇保留的主成分數量比原始特徵數量少。在這個例子中,我們將保留2個主成分。
pca = PCA(n_components=2) principal_components = pca.fit_transform(data_scaled)
現在,我們可以使用matplotlib來繪製PCA的結果。結果圖形將顯示在一個二維座標系中,其中每個鳶尾花的不同顏色表示其所屬的品種。在這個圖形中,我們可以看到不同種類的鳶尾花在不同的方向上分佈。
plt.figure(figsize=(8,6)) plt.scatter(principal_components[:,0], principal_components[:,1], c=data['species']) plt.xlabel('Principal Component 1') plt.ylabel('Principal Component 2') plt.show()
透過這個實例,我們可以看到原理因子分析的工作原理和應用。 PCA是一個非常有用的技術,可以用於資料視覺化、雜訊過濾、特徵提取和資料壓縮等諸多領域。因此,在資料分析和機器學習領域,PCA是一個不可或缺的工具。
以上是Python中的原理因子分析實例的詳細內容。更多資訊請關注PHP中文網其他相關文章!