假设硬币下落出现正反两种状态的概率都是1/2,则投掷硬币的信息量为多少.
问题描述:
假设硬币下落出现正反两种状态的概率都是1/2,则投掷硬币的信息量为多少.
答
信息量或者熵(Entropy),又称Shannon Entropy,定义为:∑_i-pi log_2(pi)现在,硬币正反的概率都是1/2,所以p1=1/2,p2=1/2,所以,Entropy = - (1/2) log_2 (1/2) - (1/2) log_2 (1/2) = - log_2 (1/2) = 1 .其实,你...