当随即变量X和Y相互独立时,条件熵等于信源熵。
第1题:
对于限平均功率的一维连续信源,当概率密度()时,信源熵有最大值。
第2题:
简述离散信源和连续信源的最大熵定理。
第3题:
A、条件熵
B、信息熵
C、联合熵
D、互信息熵
第4题:
若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为()。
第5题:
连续信源和离散信源的熵都具有非负性。
第6题:
设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。
第7题:
离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。
第8题:
互信息I(X;Y)与信息熵H(Y)的关系为:I(X;Y)()(大于、小于或者等于)H(Y)。
第9题:
信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。
第10题:
离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的()。