社团检测度量指标

时间:2022-10-07 15:19:45

I was well beaten myself,and i am better for it.

我自己也被被打败过,但我因此变得更好。

社团检测度量指标

假设对于图 G(VE) 有两种划分 X=(X1,X2,...,XnX) Y=(Y1,Y2,...,YnY) , nX,nY 分别是划分 X,Y 得到的社团的个数。用 nXi,nYj 表示社团 Xi,Yj 中顶点的数量, nij 表示社团 Xi,Yj 中重叠的顶点个数: nij=|XiYj|

根据不同的计算方法,社团检测指标大概可以分为以下三类:

  • 基于成对计数(Based on pair counting)
  • 基于聚类匹配(Based on cluster matching)
  • 基于信息论(Based on information theory)

基于成对计数指标

基于成对计数度量取决于两种划分 X,Y 中将顶点对划分在同一个社团的顶点对的数量。符号 a11 表示两种划分中顶点对在同一个社团中的顶点对的数量, a01a10 表示在顶点对在划分 X 中在同一个社团中但是在划分 Y 中在不同社团中的顶点对的数量, a00 表示两种划分中顶点对都不在同一个社团中顶点对的数量。

Wallace 提出两种指标

WI=a11knXk(nXk1)/2;WII=a11knYk(nYk1)/2

WI,WII 表示划分 X 中顶点对在同一个社团并且在划分 Y 中也在同一个社团中的概率,反之亦然。这两种指标是对称的但是数值不同,一般使用 WI,WII 的平均值作为度量标准。

兰德指数(Rand Index)

兰德指数 是两种划分 X,Y 中顶点对正确分类的数量(顶点对在同一个社团中或者在不同的社团中)与总的顶点对的数量的比值,可以使用下式表示:

RIX,Y=a11+a00a11+a01+a10+a00=a11+a00CnG2

其中 CnG2 是图中可以组成的总顶点对对数,RI取值范围为[0,1],值越大意味着两种划分结果越吻合。

对于随机结果,RI并不能保证分数接近零。为了实现“在聚类结果随机产生的情况下,指标应该接近零”,调整兰德系数(Adjusted rand index)被提出,它具有更高的区分度:

ARI=RIE[RI]max(RI)E[RI]

可参考Wiki上详细的ARI计算公式 ,ARI取值范围为[−1,1],值越大意味着两种划分结果越吻合。从广义的角度来讲,ARI衡量的是两个数据分布的吻合程度。

杰卡德指数(Jaccard Index)

杰卡德指数是两种划分 X,Y 中都在同一个社团中顶点对的数量和顶点对至少在一种划分的社团中的比值,可以使用下式来表示:

J(X,Y)=a11a11+a01+aa10

对于其改进形式可以参考这篇论文Comparing clusterings—an information based distance

基于聚类匹配指标

基于类匹配的度量方法是找出不同划分中社团的重叠性。

分类错误率(Classification Error)

计算公式定义如下:

H(X,Y)=11nmaxπk=1nXnkπ(k)

其中 π XY 的单射函数,其中 max 是考虑到所有的单射函数集合 π ,按照这种计算方式就可以考虑到两种划分的最大的重叠性。具体定义信息可以参考论文An Experimental Comparison of Model-Based Clustering Methods

Normalized Van Dongen Metric

计算公式定义如下:

D(X,Y)=112n[k=1nXmaxknkk+k=1nYmaxknkk]

上面公式是对分类错误率公式的改进,具体信息可以参考论文Performance criteria for graph clustering and Markov cluster experiments

基于信息论指标

基于信息论的度量指标根据香农信息熵理论进行计算不同划分之间的相关性。下面只简单介绍标准化信息,具体计算标准可以参考论文Information Theoretic Measures for Clusterings Comparison: Variants, Properties, Normalization and Correction for Chance

互信息(Mutual Information)

互信息(Mutual Information)是用来衡量两个数据分布的吻合程度。假设 X Y 是对N个顶点的划分情况,则两种划分的熵(熵表示的是不确定程度)分别为:

H(X)=i=1|X|P(i)log(P(i));H(Y)=j=1|Y|P(j)log(P(j))

其中 P(i)=|Xi|/N,P(j)=|Yj|/N .

那么 X,Y 之间的互信息 MI 可以定义如下:

MI(X,Y)=i=1|X|j=1|Y|P(i,j)log(P(i,j)P(i)P(j))

其中 P(i,j)=|XiYj|/N .上式可以用集合的形式表示如下:

MI(X,Y)=i=1|X|j=1|Y||XiYj|Nlog(N|XiYj||Xi||Yj|)

标准化互信息(Normalized Mutual Information)

标准化信息定义如下:

NMI(X,Y)=MI(X,Y)H(X)H(Y)NMI(X,Y)=2MI(X,Y)H(X)H(Y)

具体计算过程可以参考我的另一篇博客:标准化互信息NMI计算步骤及其Python实现

调整的互信息(Adjusted Mutual Information)

ARI 调整方法相似, AdjustedIndex=IndexExpectedIndexMaxIndexExpectedIndex ,那么调整的互信息可以表示为如下形式:

AMI=MIE[MI]max(H(X),H(Y))E[MI]

具体计算形式可以参考Wikipedia上Adjusted mutual information

其它相关指标

以上度量指标适用于人工生成的数据集,对于真实网络的数据集一般采用以下两种度量指标:

非重叠社团划分质量的模块度函数Q

模块度的主要介绍可以参考Wiki上Modularity networks,以下写出主要的理解。

A 为网络的邻接矩阵, cv,cw 分别为点 v,w 所在的两个社团,社团内部的边数和网络中总边数的比例为:

vwAvwδ(cv,cw)vwAvw=12mvwδ(cv,cw)

函数 δ 为克罗内克函数,m为网络中的总边数。

模块度的大小定义如下:社团内部的总边数和网络中的总边数的比例减去一个期望值,该期望值是将网络设定为随机网络时同样的社团分配所形成的社团内部的总边数和网络中总边数的比例的大小,模块度计算公式定义如下:

Q=12mvw[Avwkvkw2m]δ(cv,cw)

其中, kv 表示节点 v 的度。设 eij 表示社团 i 和社团 j 内部边数目的和与总边数的比例, ai 表示社团 i 内部的点所关联的所有边的数目与总边数的比例,可以用一下公式来表示:

eij=12mvwAvwδ(cv,i)δ(cw,j);ai=12mvkvδ(cv,i)

可以根据上述定义简化Q的计算,假设网络分为n个社团,Q的计算公式可以进一步推导:

Q=12mvw[Avwkvkw2m]δ(cv,cw)

=i[12mvwAvwδ(cv,i)δ(cw,i)12mvkvδ(cv,i)12mwkwδ(cw,i)]

=i(eiia2i)

在进行每次划分的时候计算Q值,Q取值最大的时候则是此网络较理想的划分。Q值的范围在0-1之间,Q值越大说明网络划分的社区结构准确度越高,在实际的网络分析中,Q值的最高点一般出现在0.3-0.7之间。

重叠社团划分质量的模块度函数 EQ

由模块度改进的指标EQ可用于度量重叠社团的划分结果,具体推导过程可以参考论文Extending the definition of modularity to directed graphs with overlapping communities,以下给出具体的定义公式:

EQ=12miuci,vci1QuQv[Auvkukv2m]

其中 Qu 表示节点u所属的社团, A 为网络的邻接矩阵, ku 为节点 u 的度, m 表示网络中的总边数。