当随即变量X和Y相互独立时,条件熵等于信源熵。

题目

当随即变量X和Y相互独立时,条件熵等于信源熵。

如果没有搜索结果或未解决您的问题,请直接 联系老师 获取答案。
相似问题和答案

第1题:

对于限平均功率的一维连续信源,当概率密度()时,信源熵有最大值。


正确答案:高斯分布

第2题:

简述离散信源和连续信源的最大熵定理。


正确答案: 离散无记忆信源,等概率分布时熵最大。连续信源,峰值功率受限时,均匀分布的熵最大。平均功率受限时,高斯分布的熵最大。均值受限时,指数分布的熵最大。

第3题:

如果有两个信源X、Y,在事件X或Y产生的情况下,另一事件Y或X的产生还保留着平均不确定性或疑义度,这可以用()来表示。

A、条件熵

B、信息熵

C、联合熵

D、互信息熵


参考答案:A

第4题:

若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为()。


正确答案:3

第5题:

连续信源和离散信源的熵都具有非负性。


正确答案:错误

第6题:

设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。


正确答案:1/4;2; 2

第7题:

离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。


正确答案:正确

第8题:

互信息I(X;Y)与信息熵H(Y)的关系为:I(X;Y)()(大于、小于或者等于)H(Y)。


正确答案:小于

第9题:

信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。


正确答案:正确

第10题:

离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的()。


正确答案:N倍