信息熵计算公式H(x) = E[I(xi)] = E[ log(2,1/P(xi)) ] = -∑P(xi)log(2,P(xi)) (i=1,2,..n)其中,x表示随机变量,与之相对应的是所有可能输出的集合,定义为符号集,随机变量的输出用x表示
P(x)表示输出概率函数
变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大.
以上内容由大学时代综合整理自互联网,实际情况请以官方资料为准。