|
本帖最后由 一秉 于 2020-5-19 21:00 编辑
实验准备:通过pip引入matplotlib, numpy, sklearn三个包
import matplotlib.pyplot as plt
import numpy as np
from sklearn.cluster import KMeans
from sklearn import datasets
iris = datasets.load_iris()#导入sklearn自带的鸢尾花数据集,鸢尾花一共有四个属性,创建四个维度
X = iris.data[:, :4] # #表示我们取特征空间中的4个维度
print(X.shape)
# 绘制数据分布图
plt.scatter(X[:, 0], X[:, 1], c="red", marker='o', label='see')
plt.xlabel('sepal length')
plt.ylabel('sepal width')
plt.legend(loc=2)
plt.show()
estimator = KMeans(n_clusters=3) # 构造聚类器,构建包含三个分类的聚类器
estimator.fit(X) # 做出聚类运算,由KMeans封装底层代码
label_pred = estimator.labels_ # 获取聚类标签
# 绘制k-means结果
x0 = X[label_pred == 0]
x1 = X[label_pred == 1]
x2 = X[label_pred == 2]
plt.scatter(x0[:, 0], x0[:, 1], c="red", marker='o', label='label0')
plt.scatter(x1[:, 0], x1[:, 1], c="green", marker='*', label='label1')
plt.scatter(x2[:, 0], x2[:, 1], c="blue", marker='+', label='label2')
plt.xlabel('sepal length')
plt.ylabel('sepal width')
plt.legend(loc=2)
plt.show()
我们可以通过去更改属性值,尝试分析那两种属性的效果得到的结果会比较好一点
比较第1个和第3个属性(图1-3.png),分类结果比较好,不同的类界限分明
比较第1,2个属性(图1-2.png),效果没有比较1,3个属性的结果好,蓝色的点和红色的点有交接出。
当然,有兴趣的可以继续比较其他属性的结果。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有帐号?立即注册
x
|