第1题:
A、总信息量
B、平均信息量
C、个别信息量
D、绝对平均信息量
第2题:
互信息I(X;Y)与信息熵H(Y)的关系为:I(X;Y)()(大于、小于或者等于)H(Y)。
第3题:
A、条件熵
B、信息熵
C、联合熵
D、互信息熵
第4题:
简述离散信源和连续信源的最大熵定理。
第5题:
设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。
第6题:
A.冗余
B.数据
C.平均信息量
D.信息量
第7题:
如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()
第8题:
A、平均
B、固定的
C、不变的
D、随机
第9题:
对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P和信源的熵功率()。
第10题:
离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。