首先要說,聚類屬於機器學習的無監督學習,而且也分很多種方法,例如大家熟知的有K-means。層次聚類也是聚類中的一種,也很常用。以下我先簡單回顧K-means的基本原理,然後慢慢引出層次聚類的定義和分層步驟,這樣更有助於大家理解。
K-means 工作原理可以簡單概述為:
這是一個迭代過程,直到新形成的簇的質心不變,或達到最大迭代次數。
但是K-means 是存在一些缺點的,我們必須在演算法開始前就決定簇數K 的數量,但實際上我們並不知道應該有多少個簇,所以一般都是根據自己的理解先設定一個值,這可能導致我們的理解和實際情況存在一些偏差。
層次聚類完全不同,它不需要我們開始的時候指定簇數,而是先完整的形成整個層次聚類後,透過決定合適的距離,自動就可以找到對應的簇數和聚類。
下面我們由淺及深的介紹什麼是層次聚類,先來一個簡單的例子。
假設我們有以下幾點,我們想要將它們分組:
我們可以將這些點中的每一個分配給一個單獨的簇,就是4個簇(4種顏色):
然後基於這些簇的相似性(距離),將最相似的(距離最近的)點組合在一起並重複這個過程,直到只剩下一個群集:
上面本質上就是在建構一個層次結構。先了解到這裡,後面我們詳細介紹它的分層步驟。
主要有兩種類型的層次聚類:
先讓所有點分別成為一個單獨的簇,然後透過相似性不斷組合,直到最後只有一個簇為止,這就是凝聚層次聚類的過程,和我們上面剛剛說的一致。
分裂層次聚類正好反過來,它是從單一集群開始逐步分裂,直到無法分裂,即每個點都是一個簇。
所以無論是10、100、1000 個資料點都不重要,這些點在開始的時候都屬於同一個叢集:
現在,在每次迭代中拆分簇中相隔最遠的兩點,並重複這個過程,直到每個簇只包含一個點:
上面的過程就是分裂層次聚類。
上面已經說了層次聚類的大概過程,那關鍵的來了,如何確定點和點的相似性呢?
這是聚類中最重要的問題之一了,一般計算相似度的方法是:計算這些簇的質心之間的距離。距離最小的點稱為相似點,我們可以合併它們,也可以稱為基於距離的演算法。
另外在層次聚類中,還有一個稱為鄰近矩陣的概念,它儲存了每個點之間的距離。以下我們透過一個例子來理解如何計算相似度、鄰近矩陣、以及層次聚類的具體步驟。
假設一位老師想要將學生分成不同的組別。現在有每個學生在作業中的分數,想根據這些分數將他們分成幾組。關於擁有多少組,這裡沒有固定的目標。由於老師不知道應該將哪種類型的學生分配到哪個組,因此不能作為監督學習問題來解決。下面,我們將嘗試應用層次聚類將學生分成不同的群組。
下面是5名學生的成績:
首先,我們要建立一個鄰近矩陣,它儲存了每個點兩兩之間的距離,因此可以得到一個形狀為n X n 的方陣。
這個案例中,可以得到以下5 x 5 的鄰近矩陣:
#矩陣裡有兩點要注意下:
例如,我們要計算點1 和2 之間的距離,計算公式為:
#同理,依此計算方法完成後填入鄰近矩陣其餘元素。
這裡使用凝聚層次聚類來實作。
步驟1:首先,我們將所有點分配成單一簇:
#這裡不同的顏色代表不同的簇,我們資料中的5 個點,即有5 個不同的簇。
步驟2:接下來,我們需要找出鄰近矩陣中的最小距離並合併距離最小的點。然後我們更新鄰近矩陣:
最小距離是3,因此我們將合併點1 和2:
讓我們看看更新的群集並相應地更新鄰近矩陣:
更新之後,我們取了1、2 兩個點中位數(7, 10) 最大的來替換這個簇的值。當然除了最大值之外,我們還可以取最小值或平均值。然後,我們將再次計算這些簇的鄰近矩陣:
第 3 步:重複第 2 步,直到只剩下一個簇。
重複所有的步驟後,我們將得到如下所示的合併的聚類:
#這就是凝聚層次聚類的工作原理。但問題是我們仍然不知道該分幾組?是2、3、還是4組呢?
下面開始介紹如何選擇聚類數。
為了得到層次聚類的群集數,我們使用了一個概念,叫作樹狀圖。
透過樹狀圖,我們可以更方便的選出聚類的簇數。
回到上面的例子。當我們合併兩個簇時,樹狀圖會相應地記錄這些簇之間的距離並以圖形形式表示。下面這個是樹狀圖的原始狀態,橫座標記錄了每個點的標記,縱軸記錄了點和點之間的距離:
##當合併兩個簇時,會在樹狀圖中連接起來,連接的高度就是點之間的距離。下面是我們剛剛層次聚類的過程。 然後開始對上面的過程進行樹狀圖的繪製。從合併樣本 1 和 2 開始,這兩個樣本之間的距離為 3。 可以看到已經合併了 1 和 2。垂直線代表 1 和 2 的距離。同理,按照層次聚類過程繪製合併簇類別的所有步驟,最後得到了這樣的樹狀圖:透過樹狀圖,我們可以清楚地形象化層次聚類的步驟。樹狀圖中垂直線的距離越遠代表簇之間的距離越大。
有了這個樹狀圖,我們決定簇類別數就方便多了。
現在我們可以設定一個閾值距離,繪製一條水平線。例如我們將閾值設為12,並繪製一條水平線,如下:
#從交點中可以看到,聚類的數量就是與閾值水平線與垂直線相交的數量(紅線與2 條垂直線相交,我們將有2 個簇)。與橫座標相對應的,一個簇將有一個樣本集合為 (1,2,4),另一個群集將有一個樣本集合 (3,5)。
這樣,我們就透過樹狀圖解決了分層聚類中要決定聚類的數量。
上面是理論基礎,有點數學基礎看得懂。以下介紹下在如何用程式碼Python來實現這個過程。這裡拿一個客戶細分的數據來展示一下。
資料集和程式碼在我的GitHub倉庫裡:
https://github.com/xiaoyusmd/PythonDataScience
這個資料是來自UCI 機器學習函式庫。我們的目的是根據批發分銷商的客戶在不同產品類別(如牛奶、雜貨、地區等)上的年度支出,將他們細分。
首先對資料進行一個標準化,為了讓所有資料在同一個維度便於計算,然後應用層次聚類來細分客戶。
from sklearn.preprocessing import normalize data_scaled = normalize(data) data_scaled = pd.DataFrame(data_scaled, columns=data.columns) import scipy.cluster.hierarchy as shc plt.figure(figsize=(10, 7)) plt.title("Dendrograms") dend = shc.dendrogram(shc.linkage(data_scaled, method='ward'))
x 軸包含了所有樣本,y 軸代表這些樣本之間的距離。距離最大的垂直線是藍線,假如我們決定要以閾值6 切割樹狀圖:
plt.figure(figsize=(10, 7)) plt.title("Dendrograms") dend = shc.dendrogram(shc.linkage(data_scaled, method='ward')) plt.axhline(y=6, color='r', linestyle='--')
現在我們有兩個簇了,我們要對這2個簇應用層次聚類:
from sklearn.cluster import AgglomerativeClustering cluster = AgglomerativeClustering(n_clusters=2, affinity='euclidean', linkage='ward') cluster.fit_predict(data_scaled)
由於我們定義了2 個簇,因此我們可以在輸出中看到0 和1 的值。 0 代表屬於第一個簇的點,1 代表屬於第二個簇的點。
plt.figure(figsize=(10, 7)) plt.scatter(data_scaled['Milk'], data_scaled['Grocery'], c=cluster.labels_)
到這裡我們就成功的完成了聚類。
以上是一文讀懂層次聚類(Python程式碼)的詳細內容。更多資訊請關注PHP中文網其他相關文章!