网站首页  英汉词典

请输入您要查询的英文单词:

 

单词 Joint entropy
释义

Joint entropy

中文百科

联合熵

独立的(H(X),H(Y)), 联合的(H(X,Y)), 以及一对带有互信息 I(X; Y) 的相互关联的子系统 X,Y 的条件熵。

联合熵是一集变量之间不确定性的衡量手段。

两个变量XY 的联合信息熵定义为:

\Eta(X,Y) = -\sum_{x} \sum_{y} P(x,y) \log_2[P(x,y)] \!

其中 xyXY的特定值, 相应地, P(x,y) 是这些值一起出现的联合概率, 若P(x,y)=0 为0,则P(x,y) \log_2[P(x,y)] 定义为0。

对于两个以上的变量 X_1, ..., X_n ,该式的一般形式为:

\Eta(X_1, ..., X_n) = -\sum_{x_1} ... \sum_{x_n} P(x_1, ..., x_n) \log_2[P(x_1, ..., x_n)] \!

其中 x_1,...,x_nX_1,...,X_n 的特定值,相应地,P(x_1, ..., x_n) 是这些变量同时出现的概率,若P(x_1, ..., x_n)=0为0,则 P(x_1, ..., x_n) \log_2[P(x_1, ..., x_n)] 被定义为0.

英语百科

Joint entropy 联合熵

Venn diagram for various information measures associated with correlated variables X and Y. The area contained by both circles is the joint entropy H(X,Y). The circle on the left (red and violet) is the individual entropy H(X), with the red being the conditional entropy H(X|Y). The circle on the right (blue and violet) is H(Y), with the blue being H(Y|X). The violet is the mutual information I(X;Y).

In information theory, joint entropy is a measure of the uncertainty associated with a set of variables.

随便看

 

英汉网英语在线翻译词典收录了3779314条英语词汇在线翻译词条,基本涵盖了全部常用英语词汇的中英文双语翻译及用法,是英语学习的有利工具。

 

Copyright © 2004-2024 encnc.com All Rights Reserved
更新时间:2025/6/17 17:07:54