首页 >科技周边 >人工智能 >KNN算法分类的基本原理和实例

KNN算法分类的基本原理和实例

王林
王林转载
2024-01-23 11:24:20755浏览

KNN算法分类的基本原理和实例

KNN算法是一种简单易用的分类算法,适用于小规模数据集和低维特征空间。它在图像分类、文本分类等领域中表现出色,因其实现简单、易于理解而备受青睐。

KNN算法的基本思想是通过比较待分类样本的特征与训练样本的特征,找到最接近的K个邻居,并根据这K个邻居的类别确定待分类样本的类别。KNN算法中使用已标记好类别的训练集和待分类的测试集。KNN算法的分类过程包括以下几个步骤:首先,计算待分类样本与所有训练样本之间的距离;其次,选择距离最近的K个邻居;然后,根据K个邻居的类别进行投票,得出待分类样本的类别;最后,将待分类样本的类别确定为投票结果中得票最多的类别。通过这些步骤,KNN算法可以对待分类样本进行准确的分类。

1.计算距离

对于未分类的测试样本,需计算其与训练集所有样本的距离,常用欧式、曼哈顿等方法。

2.选择K个邻居

根据计算出来的距离,选择与待分类样本距离最近的K个训练集样本。这些样本就是待分类样本的K个邻居。

3.确定类别

根据K个邻居的类别来确定待分类样本的类别。通常采用“多数表决法”来确定待分类样本的类别,即选择K个邻居中出现最多的类别作为待分类样本的类别。

KNN算法相对简单,但也有一些需要注意的问题。首先,K值的选择对算法的性能有很大的影响,通常需要通过交叉验证等方法来确定最优的K值。其次,KNN算法对数据集的规模和维度敏感,对于大规模和高维数据集的处理会出现效率问题。此外,KNN算法还存在“类别不平衡”的问题,即某些类别的样本数量较少,可能导致算法对这些类别的分类效果较差。

以下是一个使用Python实现KNN算法的分类实例,代码如下:

import numpy as np
from collections import Counter

class KNN:
    def __init__(self, k):
        self.k = k

    def fit(self, X, y):
        self.X_train = X
        self.y_train = y

    def predict(self, X_test):
        predictions = []

        for x_test in X_test:
            distances = []
            for x_train in self.X_train:
                distance = np.sqrt(np.sum((x_test - x_train)**2))
                distances.append(distance)
            idx = np.argsort(distances)[:self.k]
            k_nearest_labels = [self.y_train[i] for i in idx]
            most_common = Counter(k_nearest_labels).most_common(1)
            predictions.append(most_common[0][0])

        return np.array(predictions)

这个KNN类的构造函数中传入参数k表示选择多少个邻居来进行分类。fit方法用于训练模型,接受一个训练集X和它们对应的标签y。predict方法用于对测试集进行分类,接受一个测试集X_test,返回预测的标签。

在predict方法中,对于每个测试样本,首先计算它与训练集中所有样本的距离,并选择距离最近的k个样本。然后,统计这k个样本中出现最频繁的标签,并作为测试样本的分类标签。

下面是一个使用这个KNN类进行分类的例子,数据集为一个二维平面上的点集,其中红色点表示类别1,蓝色点表示类别2:

import matplotlib.pyplot as plt

# 生成数据集
X = np.random.rand(200, 2) * 5 - 2.5
y = np.zeros(200)
y[np.sum(X**2, axis=1) > 2] = 1

# 分割训练集和测试集
train_idx = np.random.choice(200, 150, replace=False)
test_idx = np.array(list(set(range(200)) - set(train_idx)))
X_train, y_train = X[train_idx], y[train_idx]
X_test, y_test = X[test_idx], y[test_idx]

# 训练模型并进行预测
knn = KNN(k=5)
knn.fit(X_train, y_train)
y_pred = knn.predict(X_test)

# 计算准确率并绘制分类结果
accuracy = np.mean(y_pred == y_test)
print("Accuracy:", accuracy)

plt.scatter(X_test[:, 0], X_test[:, 1], c=y_pred)
plt.show()

运行这段代码后,可以看到分类结果图像。其中,颜色表示预测的类别,红色表示类别1,蓝色表示类别2。根据分类结果,可以计算出模型的准确率。

这个实例展示了KNN算法在二维平面上的应用,通过计算距离来确定邻居,并根据邻居的类别来进行分类。在实际应用中,KNN算法可以用于图像分类、文本分类等领域,是一种简单而有效的分类算法。

以上是KNN算法分类的基本原理和实例的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:163.com。如有侵权,请联系admin@php.cn删除