文章目录
- 环境配置(必看)
- 头文件引用
- K-means算法
- 1.简介
- 2.API
- 3.代码工程
- 4.运行结果
- 5.模型评估
- 6.小结
- 优缺点
环境配置(必看)
Anaconda-创建虚拟环境的手把手教程相关环境配置看此篇文章,本专栏深度学习相关的版本和配置,均按照此篇文章进行安装。
头文件引用
from sklearn.cluster import KMeans
from sklearn.datasets import make_blobs
from sklearn.metrics import calinski_harabasz_score
import matplotlib.pyplot as plt
K-means算法
1.简介
1)一种典型的无监督学习算法,
2)主要用于将相似的样本自动归到一个类别中
3)计算样本和样本之间的相似性,一般使用欧式距离
2.API
sklearn.cluster.KMeans(n_clusters=8)
参数:
n_clusters:开始的聚类中心数量
整型,缺省值=8,生成的聚类数,即产生的质心(centroids)数。
方法:
estimator.fit(x)
estimator.predict(x)
estimator.fit_predict(x)
计算聚类中心并预测每个样本属于哪个类别,相当于先调用fit(x),然后再调用predict(x)
3.代码工程
# 创建数据集
# X为样本特征,Y为样本簇类别, 共1000个样本,每个样本2个特征,共4个簇,
# 簇中心在[-1,-1], [0,0],[1,1], [2,2], 簇方差分别为[0.4, 0.2, 0.2, 0.2]
# n_features=2 -- 2维(x轴, y轴)2个特征
X, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
cluster_std=[0.4, 0.2, 0.2, 0.2],
random_state=9)
y_pred = KMeans(n_clusters=4, random_state=9).fit_predict(X)
# 分别尝试n_cluses=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pred)
plt.show()
# 用Calinski-Harabasz Index评估的聚类分数
print(calinski_harabasz_score(X, y_pred))
4.运行结果
经过测试,n_clusters=4的时候最佳
calinski_harabasz_score的值越大越好
5.模型评估
此部分知识不详细赘述了,可以自行网上搜集资料
1.SSE - 误差平方和
2.“肘”方法 - K值确定
3.SC - 轮廓系数法
4.CH - CH系数
6.小结
K-means聚类实现流程【掌握】
1.事先确定常数K,常数K意味着最终的聚类类别数;
2.随机选定初始点为质心,并通过计算每一个样本与质心之间的相似度(这里为欧式距离),将样本点归到最相似的类中,接着,重新计算每个类的
质心(即为类中心),重复这样的过程,直到质心不再改变,最终就确定了每个样本所属的类别以及每个类的质心。
注意:
由于每次都要计算所有的样本与每一个质心之间的相似度,故在大规模的数据集上,K-Means算法的收敛速度比较慢。