OpenCV-Python:K值聚类

摘要:
它应该是一个包含三个成员的元组。它们是:终止类型:有三个选项:-cv2.TERM_标准_ EPS仅在满足精度epslion时停止迭代-cv2.TTERM_标准_最大_ ITER当迭代次数超过阈值时停止迭代–cv2.TERM _标准_ EPS+cv2.TERM _标准A_最大_满足ITER以上任何条件时停止迭代最大_ ITER:最大迭代次数epsilon:精度阈值4.尝试次数:使用不同的开始标记执行算法的次数。

关于K聚类,我曾经在一篇博客中提到过,这里简单的做个回顾。

KMeans的步骤以及其他的聚类算法

  K-均值是因为它可以发现k个不同的簇,且每个簇的中心采用簇中所含值的均值计算

  其他聚类算法:二分K-均值

  讲解一下步骤,其实就是说明一下伪代码

随机选择k个点作为起始质心
        当任意一个点的簇分配结果发生改变时
            对数据集中的每个数据点
                对每个质心
                    计算质心与数据点之间的距离
                将数据分配到距其最近的簇
            对每一个簇,计算簇中所有点的均值并将均值作为质心

OpenCV中使用cv2.kmeans()对数据进行分类

理解函数的参数

输入参数:cv2.kmeans(data,K, bestLabels,criteria,attempt,flags)

  1. data:应该是np.float32类型的数据,每个特征应该放在一列。

  2. K:聚类的最终数目

  3. criteria:终止迭代的条件。当条件满足,算法的迭代终止。它应该是一个含有3个成员的元组,它们是(type,max_iter, epsilon):

    type终止的类型:有如下三种选择:

      - cv2.TERM_CRITERIA_EPS 只有精确度epslion满足时停止迭代

      - cv2.TERM_CRITERIA_MAX_ITER 当迭代次数超过阈值时停止迭代

      – cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER 上面的任何一个条件满足时停止迭代

   max_iter:最大迭代次数

   epsilon:精确度阈值

  4. attempts:使用不同的起始标记来执行算法的次数。算法会返回紧密度最好的标记。紧密度也会作为输出被返回

  5. flags:用来设置如何选择起始中心。通常我们有两个选择:cv2.KMEANS_PP_CENTERS和 cv2.KMEANS_RANDOM_CENTERS。

输出参数:

  1. compactness:紧密度返回每个点到相应中心的距离的平方和

  2. labels:标志数组,每个成员被标记为0,1等

  3. centers:有聚类的中心组成的数组

仅有一个特征的数据

假设我们有一组数据,每个数据只有一个特征。例如前面的T恤问题,我们只用身高来决定T恤的大小。我们来产生一些随机数据,并使用Matplotlib

# 随机在25~100之间产生25个值
x = np.random.randint(25,100,25)

y = np.random.randint(175,255,25)

z = np.hstack((x,y))
z = z.reshape((50,1))
z = np.float32(z)
plt.hist(z,256,[0,256]),plt.show()

OpenCV-Python:K值聚类第1张

我们使用KMeans函数。先设置好终止条件。10次迭代或者精确度epsilon=1.0

# Define criteria = ( type, max_iter = 10 , epsilon = 1.0 )
criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0)

# Set flags (Just to avoid line break in the code)
flags = cv2.KMEANS_RANDOM_CENTERS

# Apply KMeans
compactness,labels,centers = cv2.kmeans(z,2,None,criteria,10,flags)

把数据分成两组

A = z[labels==0]
B = z[labels==1]

现在将 A 组数用红色表示,将 B 组数据用蓝色表示,重心用黄色表示。

# Now plot 'A' in red, 'B' in blue, 'centers' in yellow
plt.hist(A,256,[0,256],color = 'r')
plt.hist(B,256,[0,256],color = 'b')
plt.hist(centers,32,[0,256],color = 'y')
plt.show()

OpenCV-Python:K值聚类第2张

含有多个特征的数据

T恤我们只考虑了身高,现在将体重也考虑进去,也就是两个特征。在本例中我们的测试数据是50x2的向量,其中包含50个人的身高和体重。第一列对应身高,第二列对应体重。如下图所示:

OpenCV-Python:K值聚类第3张

import numpy as np
import cv2
from matplotlib import pyplot as plt

X = np.random.randint(25,50,(25,2))
Y = np.random.randint(60,85,(25,2))
Z = np.vstack((X,Y))

# convert to np.float32
Z = np.float32(Z)

# define criteria and apply kmeans()
# 迭代次数为10次,精确度为1.0
criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0)
ret,label,center=cv2.kmeans(Z,2,None,criteria,10,cv2.KMEANS_RANDOM_CENTERS)

# Now separate the data, Note the flatten()
A = Z[label.ravel()==0]
B = Z[label.ravel()==1]

# Plot the data
plt.scatter(A[:,0],A[:,1])
plt.scatter(B[:,0],B[:,1],c = 'r')
plt.scatter(center[:,0],center[:,1],s = 80,c = 'y', marker = 's')
plt.xlabel('Height'),plt.ylabel('Weight')
plt.show()

OpenCV-Python:K值聚类第4张

颜色量化

颜色量化就是减少图片中颜色数目的一个过程,其原因是为了减少内存消耗。现在有3个特征:R,G,B,所以我们需要把图片数据变形成Mx3(M是图片中像素点的数目)的向量。聚类完成后,我们用聚类中心值替换与其同簇的像素值,这样结果图片就只含指定数目的颜色了。

分别取K=2、4、8

import numpy as np
import cv2

img = cv2.imread('home.jpg')
Z = img.reshape((-1,3))

# convert to np.float32
Z = np.float32(Z)


# define criteria, number of clusters(K) and apply kmeans()
criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0)
K = 2
ret,label,center=cv2.kmeans(Z,K,None,criteria,10,cv2.KMEANS_RANDOM_CENTERS)

# Now convert back into uint8, and make original image
center = np.uint8(center)
res = center[label.flatten()]
res2 = res.reshape((img.shape))

cv2.imshow('K=2',res2)
cv2.imwrite('K=2.png', res2)
cv2.waitKey(0)
cv2.destroyAllWindows()

OpenCV-Python:K值聚类第5张

免责声明:文章转载自《OpenCV-Python:K值聚类》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇zabbix官方模板库C#简单一句代码,实现pictureBox的照片另存为磁盘文件不出错下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

聚类算法

一、聚类算法简介 聚类是无监督学习的典型算法,不需要标记结果。试图探索和发现一定的模式,用于发现共同的群体,按照内在相似性将数据划分为多个类别使得内内相似性大,内间相似性小。有时候作为监督学习中稀疏特征的预处理(类似于降维,变成K类后,假设有6类,则每一行都可以表示为类似于000100、010000)。有时候可以作为异常值检测(反欺诈中有用)。 应用场景:...

Android 使用GPS定位获取经纬度的方法

移动 是手机与手持设备的最大特点,可以通过Eclipse的DDMS视图,模拟设备的位置变化,改变经纬度后,点击send,然后运行程序,在应用程序中,动态的获取设备位置,然后显示当前的位置信息。 获取位置信息分为三步: 1. 添加系统权限,来支持对LBS硬件的访问 < uses-permission android:name="android.perm...

机器学习 —— 概率图模型(推理:团树算法)

  在之前的消息传递算法中,谈到了聚类图模型的一些性质。其中就有消息不能形成闭环,否则会导致“假消息传到最后我自己都信了”。为了解决这种问题,引入了一种称为团树(clique tree)的数据结构,树模型没有图模型中的环,所以此模型要比图模型更健壮,更容易收敛。 1.团树模型   链模型是一种最简单的树模型,其结构如下图所示,假设信息从最左端传入则有以下式...

用MATLAB做聚类分析

用MATLAB做聚类分析 近期工作关系用到Matlab做聚类分析。所谓聚类分析,其目的在于将研究的数据样本划分为不同类别。Matlab的统计工具箱提供了相应的分析工具。相关概念在网上可以找到不少资料,这里推荐两个博客供大家参考。 pluskid的漫谈 Clustering 系列:http://blog.pluskid.org/?page_id=78...

R数据挖掘 第一篇:聚类分析(划分)

聚类是把一个数据集划分成多个子集的过程,每一个子集称作一个簇(Cluster),聚类使得簇内的对象具有很高的相似性,但与其他簇中的对象很不相似,由聚类分析产生的簇的集合称作一个聚类。在相同的数据集上,不同的聚类算法可能产生不同的聚类。 聚类分析用于洞察数据的分布,观察每个簇的特征,进一步分析特定簇的特征。由于簇是数据对象的子集合,簇内的对象彼此相似,而与其...

图像分割之mean shift

阅读目的:理解quick shift,同时理解mean shift原理,mean shift用于图像聚类,优点是不需要指定聚类中心个数,缺点是计算量太大(原因)。 mean shift主要用来寻找符合一些数据样本的模型,证明样本符合某一概率密度函数(PDF),是一种非参数迭代算法能够寻找模型和聚类。 数据经过非参数密度估计能够得到符合数据分布的概率密度函...