首页
话题
登录
/
注册
文章
请输入关键字
帮助
更多
建议
更多...
游客
Lv.0
0
积分
0
铜币
首页
最新
热门
关注
推荐
动态
活动
建议
更多...
话题
签到
任务
›
文章
›
技术
互信息
wish8088
· 2010-03-13 11:12 · 40690 次点击
两个事件X和Y的互信息定义为:
I(X;Y)=H(X)H(Y)-H(X,Y)=H(X)-H(X|Y)=H(Y)-H(Y|X)>=0
其中H(X,Y)是联合熵(JointEntropy),其定义为:
H(X,Y)=-∑p(x,y)logp(x,y)
H(X|Y)是条件熵(conditionalentropy),定义重属于熵的定义;
x,y
互信息与多元对数似然比检验以及皮尔森χ2校验有着密切的联系。
0
条回复
暂无讨论,说说你的看法吧!
回复
你需要
登录
或
注册
后参与讨论!
今日话题
#职业发展#
最新文章
盛元广通大学实验室科研试剂耗材LIMS系统
热门话题
设计
干扰
实验室
直流
计量认证
频率
绝缘
分析仪
线性
自动化
灵敏度
辐射
放大器
新闻
准确度
变压器
控制系统
产品质量
检定
测试