互信息

  wish8088 ·  2010-03-13 11:12  ·  15743 次点击
两个事件X和Y的互信息定义为:
I(X;Y)=H(X)H(Y)-H(X,Y)=H(X)-H(X|Y)=H(Y)-H(Y|X)>=0
其中H(X,Y)是联合熵(JointEntropy),其定义为:
H(X,Y)=-∑p(x,y)logp(x,y)
H(X|Y)是条件熵(conditionalentropy),定义重属于熵的定义;
x,y
互信息与多元对数似然比检验以及皮尔森χ2校验有着密切的联系。

0 条回复

暂无讨论,说说你的看法吧!

 回复

你需要  登录  或  注册  后参与讨论!