6个常用的聚类评价指标算法方差数据点

评估聚类结果的有效性,即聚类评估或验证,对于聚类应用程序的成功至关重要。它可以确保聚类算法在数据中识别出有意义的聚类,还可以用来确定哪种聚类算法最适合特定的数据集和任务,并调优这些算法的超参数(例如k-means中的聚类数量,或DBSCAN中的密度参数)。

虽然监督学习技术有明确的性能指标,如准确性、精度和召回率,但评估聚类算法更具挑战性:

由于聚类是一种无监督学习方法,因此没有可以比较聚类结果的基础真值标签。

确定“正确”簇数量或“最佳”簇通常是一个主观的决定,即使对领域专家也是如此。一个人认为是有意义的簇,另一个人可能会认为是巧合。

在许多真实世界的数据集中,簇之间的界限并不明确。一些数据点可能位于两个簇的边界,可以合理地分配给两个簇。

不同的应用程序可能优先考虑簇的不同方面。例如,在一个应用程序中,可能必须有紧密、分离良好的簇,而在另一个应用程序中,捕获整体数据结构可能更重要。

考虑到这些挑战,通常建议结合使用评估指标、视觉检查和领域专业知识来评估簇性能。

一般来说,我们使用两种类型的聚类评估度量(或度量):

内部:不需要任何基础事实来评估簇的质量。它们完全基于数据和聚类结果。

外部:将聚类结果与真值标签进行比较。(因为真值标签在数据中是没有的,所以需要从外部引入)

通常,在实际的应用程序中,外部信息(如真值标签)是不可用的,这使得内部度量成为簇验证的唯一可行选择。

在本文中,我们将探讨聚类算法的各种评估指标,何时使用它们,以及如何使用Scikit-Learn计算它们。

内部指标

由于聚类的目标是使同一簇中的对象相似,而不同簇中的对象不同,因此大多数内部验证都基于以下两个标准:

紧凑性度量:同一簇中对象的紧密程度。紧凑性可以用不同的方法来衡量,比如使用每个簇内点的方差,或者计算它们之间的平均成对距离。

分离度量:一个簇与其他簇的区别或分离程度。分离度量的例子包括簇中心之间的成对距离或不同簇中对象之间的成对最小距离。

我们将描述三种最常用的内部度量方法,并讨论它们的优缺点。

1、轮廓系数

轮廓系数(或分数)通过比较每个对象与自己的聚类的相似性与与其他聚类中的对象的相似性来衡量聚类之间的分离程度[1]。

我们首先定义数据点x的轮廓系数为:

这里的A(x′)是x′到簇中所有其他数据点的平均距离。或者说如果点x∈属于簇C∈,那么

其中d(x,x)是点x和x之间的距离。我们可以将a(x^e)解释为点x^e与其自身簇匹配程度的度量(值越小,匹配越好)。对于大小为1的簇,a(x′f)没有明确定义,在这种情况下,我们设s(x′f)=0。

B(x′)是x′与相邻簇中点之间的平均距离,即点到x′的平均距离最小的簇:

轮廓系数的取值范围为-1到+1,值越高表示该点与自己的聚类匹配得越好,与邻近的聚类匹配得越差。

基于样本的轮廓系数,我们现在将轮廓指数(SI)定义为所有数据点上系数的平均值:

这里的n为数据点总数。

轮廓系数提供了对聚类质量的整体衡量:

接近1意味着紧凑且分离良好。

在0附近表示重叠。

接近-1表示簇的簇太多或太少。

sklearn的Metrics提供了许多聚类评估指标,为了演示这些指标的使用,我们将创建一个合成数据集,并使用不同的k值对其应用k-means聚类。然后,我们将使用评估指标来比较这些聚类的结果。

首先使用make_blobs()函数从3个正态分布的聚类中随机选择500个点生成一个数据集,然后对其进行归一化,以确保特征具有相同的尺度:

fromsklearn.datasetsimportmake_blobsfromsklearn.preprocessingimportStandardScalerX,y=make_blobs(n_samples=500,centers=3,cluster_std=0.6,random_state=0)X=StandardScaler().fit_transform(X)

让我们来绘制数据集:

defplot_data(X):sns.scatterplot(x=X[:,0],y=X[:,1],edgecolor='k',legend=False)plt.xlabel('$x_1$')plt.ylabel('$x_2$')plot_data(X)

然后在k=2,3,4运行k-means聚类,并将聚类结果存储在三个不同的变量中:

fromsklearn.clusterimportKMeanslabels_k2=KMeans(n_clusters=2,random_state=0).fit_predict(X)labels_k3=KMeans(n_clusters=3,random_state=0).fit_predict(X)labels_k4=KMeans(n_clusters=4,random_state=0).fit_predict(X)

现可以使用函数sklearn.metrics.silhouette_score()来计算每轮廓分数。

fromsklearn.metricsimportsilhouette_scoreprint(f'SI(2clusters):{silhouette_score(X,labels_k2):.3f}')print(f'SI(3clusters):{silhouette_score(X,labels_k3):.3f}')print(f'SI(4clusters):{silhouette_score(X,labels_k4):.3f}')

结果如下:

SI(2clusters):0.569SI(3clusters):0.659SI(4clusters):0.539

可以看到当k=3时,得分最高,并且低于1,这表明簇之间没有完全分离。

为了计算每个样本的轮廓系数,我们可以使用函数sklearn.metrics.silhouette_samples。基于这些系数,可以建立一个轮廓图,它提供了一种评估每个对象在其簇中的位置的方法。在这张图中,每个点的轮廓系数用一条水平线表示(更长的条形表示更好的聚类)。这些条按簇排列和分组。每个聚类部分的高度表示该聚类中的点的数量。

k=3的k-means聚类轮廓图为:

k=4的:

在第二张图中,我们可以看到类0和类3中的大多数点的轮廓分数低于平均分数。这表明这些聚类可能不代表数据集中的自然分组。

让我们总结一下轮廓分数的利弊。

优点:

缺点:

2、方差比准则(Calinski-HarabaszIndex)

由于Calinski-Harabasz指数的本质是簇间距离与簇内距离的比值,且整体计算过程与方差计算方式类似,所以又将其称之为方差比准则。

K是簇的数量,N是数据点的总数BCSS(between-clusterSumofSquares)是每个聚类质心(mean)与整体数据质心(mean)之间欧氏距离的加权平方和:

其中n′′是簇i中数据点的个数,c′′是簇i的质心(均值),c是所有数据点的总体质心(均值)。BCSS衡量簇之间的分离程度(越高越好)。

WCSS(Within-ClusterSumofSquares)是数据点与其各自的聚类质心之间的欧氏距离的平方和:

WCSS度量簇的紧凑性或内聚性(越小越好)。最小化WCSS(也称为惯性)是基于质心的聚类(如k-means)的目标。

CHI的分子表示由其自由度k-1归一化的簇间分离(固定k-1个簇的质心也决定了第k个质心,因为它的值使所有质心的加权和与整个数据质心匹配)。CHI的分母表示由其自由度n-k归一化的簇内离散度(固定每个簇的质心会使每个簇的自由度减少1)。

将BCSS和WCSS按其自由度划分有助于使值规范化,使它们在不同数量的簇之间具有可比性。如果没有这种归一化,CH指数可能会因k值较高而被人为夸大,从而很难确定指标值的增加是由于真正更好的聚类还是仅仅由于簇数量的增加。

CHI值越高,表示聚类效果越好,因为这意味着数据点在聚类之间的分布比在聚类内部的分布更分散。

在Scikit-Learn中,我们可以使用函数sklearn.metrics.calinski_harabasz_score()来计算这个值。

fromsklearn.metricsimportcalinski_harabasz_scoreprint(f'CH(2clusters):{calinski_harabasz_score(X,labels_k2):.3f}')print(f'CH(3clusters):{calinski_harabasz_score(X,labels_k3):.3f}')print(f'CH(4clusters):{calinski_harabasz_score(X,labels_k4):.3f}')

CH(2clusters):734.120CH(3clusters):1545.857CH(4clusters):1212.066

当k=3时,CHI得分最高,这也跟上面的轮廓系数得到的结果一样。

Calinski-Harabasz指数的优缺点如下:

3、Davies-Bouldin指数(DB值)

戴维斯-博尔丁指数(Davies-Bouldinindex,DBI)[3]衡量每个聚类与其最相似的聚类之间的平均相似度,其中相似度定义为聚类内距离(聚类中点到聚类中心的距离)与聚类间距离(聚类中心之间的距离)之比。

S是簇i中所有点到簇c质心的平均距离

S衡量簇的“扩散”或“大小”。D(c,c)是簇I和j的质心之间的距离。

比值(S+S)/d(c,c)表示聚类i和聚类j之间的相似度,即聚类之间的距离和重叠程度。当两个簇都“大”(即具有较大的内部距离)时,分子(即两个簇的扩散之和)就很高。当簇彼此靠近时,表示簇质心之间距离的分母较低。因此,如果分子和分母之间的比例较大,则两个簇可能重叠或分离不好。相反如果比例很小,则表明簇相对于它们的大小是分开的。

对于每一个聚类i,DB值确定最大这个比率的聚类j,即与聚类i最相似的聚类。最终的DB值是所有聚类的这些最坏情况相似度的平均值。

因此,DB值越低,表明簇越紧凑且分离良好,其中0是可能的最低值。

在Scikit-Learn中可以使用函数sklearn.metrics.davies_bouldin_score()来计算。

fromsklearn.metricsimportdavies_bouldin_scoreprint(f'BD(2clusters):{davies_bouldin_score(X,labels_k2):.3f}')print(f'BD(3clusters):{davies_bouldin_score(X,labels_k3):.3f}')print(f'BD(4clusters):{davies_bouldin_score(X,labels_k4):.3f}')

BD(2clusters):0.633BD(3clusters):0.480BD(4clusters):0.800

当k=3时,DBI得分最低。

其他内部指标

还有许多其他内部聚类评价方法。参见[2],详细研究了11种内部度量(包括上面提到的那些)及其在验证不同类型数据集聚类方面的有效性。

外部指标

当数据点的真实标签已知时,则可以使用外部评价指标。这些度量将聚类算法的结果与真值标签进行比较。

1、列联矩阵(contingencymatrix)

与分类问题中的混淆矩阵类似,列联矩阵(或表)描述了基本真值标签和聚类标签之间的关系。

矩阵的行表示真类,列表示簇。矩阵中的每个单元格,用n∈表示,包含了类标号为i并分配给聚类j的数据点的个数。

我们可以通过sklearn.metrics.cluster.contingency_matrix()构建列联矩阵。该函数以真值标签和聚类标签作为参数进行评估。

fromsklearn.metrics.clusterimportcontingency_matrixtrue_labels=[0,0,0,1,1,1]cluster_labels=[0,0,1,1,2,2]contingency_matrix(true_labels,cluster_labels)

array([[2,1,0],[0,1,2]],dtype=int64)

矩阵表示将两个0类的数据点放置在簇0中,一个点放置在簇1中。将类1中的两个数据点放置在簇2中,将一个数据点放置在簇1中。

很多的外部评价指标,都使用列联矩阵作为其计算的基础,了解了列联矩阵我们开始介绍一些外部指标。

2、AdjustedRandIndex(ARI)

RandIndex(RI)[4]以WilliamRand命名,通过两两比较来衡量聚类分配与真实类标签之间的相似性。计算簇分配和类标签之间的一致数与总数据点对数的比值:

A是具有相同类标签且属于同一聚类的点对的数目,B是具有不同类标签且属于不同聚类的点对的个数。N是总点数。

RI的范围从0到1,其中1表示簇分配和类标签完全相同。

可以使用sklearn.metrics.rand_score()进行计算。

fromsklearn.metricsimportrand_scoretrue_labels=[0,0,0,1,1,1]cluster_labels=[0,0,1,1,2,2]print(f'RI={rand_score(true_labels,cluster_labels):.3f}')

得到:

RI=0.667

在我们的这个例子中a=2,b=8,因此

RandIndex的问题是,即使对于随机的簇分配,它也可以得到很高的值,特别是当簇数量很大时。这是因为当聚类数量增加时,随机将不同标签的点分配给不同聚类的概率增加。因此特定的RI值可能是模糊的,因为不清楚分数中有多少是偶然的,多少是实际一致的。

而ARI通过将RI分数标准化来纠正这一点,考虑到随机分配簇时的预期RI分数。计算公式如下:

其中E[RI]为随机聚类分配下Rand指数的期望值。该值是使用上面描述的列联表计算的。我们首先计算表中每行和每列的和:

A是属于第i类的点的总数:

B是分配给聚类j的总点数:

然后使用以下公式计算ARI:

分子表示如果簇分配是随机的(E[RI]),则实际配对Rand指数与预期配对数之间的差值。分母表示最大可能的配对数(最大Rand指数)与随机情况下的期望配对数(E[RI])之差。

规范化此值,调整数据集的大小和元素跨簇的分布。

ARI值的范围从-1到1,其中1表示簇分配和类标签之间完全一致,0表示随机一致,负值表示一致性低于偶然预期。

fromsklearn.metricsimportadjusted_rand_scoreprint(f'ARI={adjusted_rand_score(true_labels,cluster_labels):.3f}')

ARI=0.242

独立于类标签的聚类赋值会得到ARI比如负值或接近0:

true_labels=[0,0,0,1,1,1]cluster_labels=[0,1,2,0,1,2]print(f'RI={rand_score(true_labels,cluster_labels):.3f}')print(f'ARI={adjusted_rand_score(true_labels,cluster_labels):.3f}')

RI=0.400ARI=-0.364

使用我们上面创建的数据集,我们数据点有真实标签(存储在y变量中),所以可以使用外部评估指标来评估我们之前获得的三个k-means聚类。这些聚类的ARI评分如下:

print(f'ARI(2clusters):{adjusted_rand_score(y,labels_k2):.3f}')print(f'ARI(3clusters):{adjusted_rand_score(y,labels_k3):.3f}')print(f'ARI(4clusters):{adjusted_rand_score(y,labels_k4):.3f}')

ARI(2clusters):0.565ARI(3clusters):1.000ARI(4clusters):0.864

当k=3时,得到一个完美的ARI分数,这意味着在这种情况下,簇分配和真实标签之间存在完美匹配。

3、同质性、完整性和v测度

这些方法通过检查聚类分配与真实类标签的一致性来评估聚类的质量。

同质性Homogeneity度量每个簇是否只包含单个类的成员。

定义如下:

这里:

C代表真值类标签。K表示算法分配的聚类标签。H(C|K)是给定聚类分配的类分布的条件熵的加权平均值:

其中nc,为分配给k簇的c类样本数,n为k簇的样本数,n为总样本数。H(C)为类分布的熵:

同质性评分范围为0~1,其中1表示完全同质性,即每个簇只包含单个类的成员。

完整性Completeness度量给定类的所有成员是否被分配到同一个簇。

H(K|C)是给定类标签的聚类分布条件熵的加权平均值:

其中nc为c类的样本数。

H(K)为聚类分布的熵:

与同质性一样,完整性的范围从0到1,其中1表示完全完整,即每个类成员被分配到单个簇。

V-measure是同质性和完备性的调和平均值,

它可以提供一个单一的分数来评估聚类性能:

通过使用调和均值,V-measure惩罚同质性和完整性之间的不平衡,鼓励更均匀的聚类性能。

在Scikit-Learn中可以使用sklearn.metrics中的函数homogeneity_score、completeness_score和v_measure_score来计算

fromsklearn.metricsimporthomogeneity_score,completeness_score,v_measure_scoretrue_labels=[0,0,0,1,1,1]cluster_labels=[0,0,1,1,2,2]print(f'Homogeneity={homogeneity_score(true_labels,cluster_labels):.3f}')print(f'Completeness={completeness_score(true_labels,cluster_labels):.3f}')print(f'V-measure={v_measure_score(true_labels,cluster_labels):.3f}')

Homogeneity=0.667Completeness=0.421V-measure=0.516

将其应用在我们的示例上:

print(f'V-measure(2clusters):{v_measure_score(y,labels_k2):.3f}')print(f'V-measure(3clusters):{v_measure_score(y,labels_k3):.3f}')print(f'V-measure(4clusters):{v_measure_score(y,labels_k4):.3f}')

V-measure(2clusters):0.711V-measure(3clusters):1.000V-measure(4clusters):0.895

当k=3时,我们得到一个完美的V-measure分数1.0,这意味着聚类标签与基本真值标签完全一致。

4、Fowlkes-MallowsIndex(FMI)

Fowlkes-MallowsIndex(FMI)[5]定义为对精度(分组点对的准确性)和召回率(正确分组在一起的对的完整性)的几何平均值:

TP(TruePositive)是具有相同类标签并属于同一簇的点对的数量。FP(FalsePositive)是具有不同类标签但被分配到同一聚类的点对的数量。FN(FalseNegative)是具有相同类标签但分配给不同簇的点对的数量。

Scikit-Learn中可以使用函数sklearn.metrics.fowlkes_malallows_score()来计算这个分数

fromsklearn.metricsimportfowlkes_mallows_scoretrue_labels=[0,0,0,1,1,1]cluster_labels=[0,0,1,1,2,2]print(f'FMI={fowlkes_mallows_score(true_labels,cluster_labels):.3f}')

结果:FMI=0.471,在本例中,TP=2,FP=1,FN=4,则:

将其应用到我们的示例:

print(f'FMI(2clusters):{v_measure_score(y,labels_k2):.3f}')print(f'FMI(3clusters):{v_measure_score(y,labels_k3):.3f}')print(f'FMI(4clusters):{v_measure_score(y,labels_k4):.3f}')

FMI(2clusters):0.711FMI(3clusters):1.000FMI(4clusters):0.895

当k=3时,得到了一个完美的FMI分数,这表明聚类分配与基本真值标签完全一致。

总结

下表总结了本文讨论的不同指标和特点:

引用

[1]PeterJ.Rousseeuw(1987).Silhouettes:aGraphicalAidtotheInterpretationandValidationofClusterAnalysis.ComputationalandAppliedMathematics,20:53–65.

[2]Davies,D.L.,&Bouldin,D.W.(1979).Aclusterseparationmeasure.IEEEtransactionsonpatternanalysisandmachineintelligence,(2),224–227.

[3]Liu,Y.,Li,Z.,Xiong,H.,Gao,X.,&Wu,J.(2010).Understandingofinternalclusteringvalidationmeasures.In2010IEEEinternationalconferenceondatamining,911–916.

[4]W.M.Rand(1971).Objectivecriteriafortheevaluationofclusteringmethods”.JournaloftheAmericanStatisticalAssociation.66(336):846–850.

[5]Rosenberg,A.,&Hirschberg,J.(2007).V-measure:Aconditionalentropy-basedexternalclusterevaluationmeasure.InProceedingsofthe2007jointconferenceonempiricalmethodsinnaturallanguageprocessingandcomputationalnaturallanguagelearning(EMNLP-CoNLL),410–420.

[6]Fowlkes,E.B.,&Mallows,C.L.(1983).Amethodforcomparingtwohierarchicalclusterings.JournaloftheAmericanstatisticalassociation,78(383),553–569.

THE END
1.lowe玻璃在线和离线的对比lowe玻璃在线和离线的对比在线与离线Low—e玻璃的区别 ? 1、生产工艺 在线Low—E玻璃是在浮法玻璃生产过程中,在热的玻璃表面上喷涂上以锡盐为主要成分的化学溶液,形成单层具有一定低辐射功能的氧化锡(SnO2)化合物薄膜而制成的. 离线Low-E玻璃是在专门的生产线,用真空磁控溅射的方法,将辐射率极低的金属银(Ag)https://wenku.baidu.com/view/72d04bbca3116c175f0e7cd184254b35eefd1a6d.html
2.lowe玻璃在线和离线的对比.pdflowe玻璃在线和离线的对比.pdf,在线与离线 Low-e 玻璃的区别 1、生产工艺 在线 Low —E 玻璃是在浮法玻璃生产过程中,在热的玻璃表面上 喷涂上以锡盐为主要成分的化学溶液,形成单层具有一定低辐射 功能的氧化锡(SnO2 )化合物薄膜而制成的。 离线 Low —E 玻璃是在专门的https://m.book118.com/html/2023/0718/7064044003005134.shtm
3.在线与离线LowE玻璃的比较和选择玻璃离线lowe低辐射透射比low 全国性建材科技期刊——《玻璃》2004年第6期总第177期在线与离线Low—E玻璃的比较和选择刘欣向.(秦皇岛长城玻璃工业有限公司秦皇岛市066000)随着社会的发展,现代建筑越来越趋向于使用大面积玻璃,注重自然采光,增加建筑的通透性,表现现代设计风格。然而普通玻璃在夏季无法阻挡阳光热能进入室内,https://www.docin.com/touch/detail.do?id=1276655578
4.视觉增强技术简述离线的视频降噪算法效果还是可以达到非常好效果,业界也有很成熟的应用产品,最出名的莫过于PC端的Neat Video和Denoise III,前者主页号称”best noise reduction for digital video”,Neat Video的降噪效果也是标杆,有很多影视作品是通过这两个制作后期降噪的,但对于视频的处理速度则非常慢,因此前后总共参考了8帧。而在移https://zhuanlan.zhihu.com/p/699074441
5.全系列lowe玻璃知识解析在线lowe?离线lowe? 在线和离线就是指两种lowe玻璃的生产工艺,在线lowe玻璃的镀膜是在浮法线上面一次性完成的;离线lowe玻璃就是离开了浮法线,在另一条叫做“真空阴级磁控溅射线”上单独完成的。 离线lowe玻璃的保温隔热性能会更好,可选的颜色也比较多,但是成本更高,它需要厂家额外去购买镀膜线,而且必须在两天之https://m.zhuxiaobang.com/article/7229596423745405498?channel_source=baidu_biji
6.麻烦在线的同志,问一下什么是lowe玻璃?因为靶材不一样,生产环境不一样,在45度 斜视仔细观察:LOW-E玻璃在线的膜层带蓝色,离线的膜层带https://zhidao.baixing.com/question/2660960.html
7.LOWE玻璃种类及辨别在线和离线是两种完全不同的镀膜方法。前者在浮法玻璃生产线上完成,膜层单一,牢固度好,可以单片使用;后者则离开了浮法生产线,在真空阴极磁控溅射镀膜生产线上完成,膜层多样,隔热性能明显优于在线Low-E玻璃,但牢固度较差,不能单片使用。 分辨方法 45度角看膜面 泛金红色的是离线low-e 泛蓝色的是在线 很明显的http://www.360doc.com/content/15/0724/17/26330039_487146721.shtml
8.说说看lowe玻璃多少钱一平方lowe玻璃一平方400元,玻璃门选用的颜色死乳白色,在打印花纹的时候在衣柜门的左上角和右下角,形成一https://m.to8to.com/ask/k8206448.html
9.lowe中空玻璃价格是多少?lowe中空玻璃就是镀膜玻璃的一种,lowe中空玻璃分很多种牌号,牌号不同它的透光率,折射等一些参数都是不一样的,颜色也不一样,一般在南方的话,用普通lowe中空玻璃(2010年新调试出来的,在线LOW-E最便宜,可钢化玻璃)就可以了,现在LOW-E大概210左右;6 12 6的中空玻璃大概230元左右。卓https://m.shejiben.com/ask/wenda/130823.html