1bit的信息量是指含有()个独立均等概率状态的事件所具有的不确

题目

1bit的信息量是指含有()个独立均等概率状态的事件所具有的不确定性能被全部消除所需要的信息。

  • A、8
  • B、4
  • C、3
  • D、2
如果没有搜索结果或未解决您的问题,请直接 联系老师 获取答案。
相似问题和答案

第1题:

如果事件1发生的概率为80%,事件2为70%,而且两个事件均是独立事件,则它们都发生的概率是:

A、6%

B、 15%

C、 24%

D、 56%


正确答案:D

第2题:

假设信源是由q个离散符号S1,S2,…,Si,…Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号出现的概率为P(Si),并满足∑P(Si)=1。那么符号Si含有的信息量I(Si)等于( ),单位是( )

A. –logq P(Si)

B. logq P(Si)

C. -log2 P(Si)

D. log2 P(Si)@@@SXB@@@A.比特

B.信息熵

C. dB

D.无单位


正确答案:C,A

第3题:

概率的统计定义是指( )。

A.随机现象是可以进行大量的重复试验的

B.多次重复试验中事件A发生的频率的大小反映了事件A发生的概率

C.两个事件之和的概率等于每个事件概率之和

D.两个事件之积的概率等于每个事件概率之积

E.两个事件之和的概率等于两个事件概率之积


正确答案:AB
解析:本题主要考查概率的统计定义。

第4题:

等概率出现的二进制码“0”的信息量为1bit/s


正确答案:正确

第5题:

下列关于概率的说法,错误的有()。

A:概率分布是不确定事件发生的可能性的一种数学模型
B:如果两个事件不可能同时发生,那么至少其中之一发生的概率为这两个概率的积
C:当随机事件A的结果不影响随机事件B发生的概率时,则称两个事件是独立的
D:如果两个事件是相互独立的,那么这两个事件同时发生的概率就是这两个事件各自发生的概率的和
E:一些概率既不能由等可能性来计算,也不可能从试验得出,需要根据常识、经验和其他相关因素来判断,这种概率称为主观概率

答案:B,D
解析:
B项,如果两个事件不可能同时发生,那么至少其中之一发生的概率为这两个概率的和;D项,如果两个事件是相互独立的,那么这两个事件同时发生的概率就是这两个事件各自发生的概率的积。

第6题:

假设信源是由q个离散符号S1,S2,…,Si…,sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足ΣP(Si)=1。那么符号Si含有的信息量I(Si)等于(38),单位是(39)。

A.-logqP(Si)

B.logqP(Si)

C.-log2P(Si)

D.log2P(Si)


正确答案:C

第7题:

有两个事件A和B,事件A的发生与否不影响事件B发生的概率,事件B是否发生与A发生的概率同样无关,那么我们就说两个事件就概率而言是()的。

A:互不相容
B:独立
C:互补
D:相关

答案:B
解析:
相互独立事件是指事件A(或B)是否发生对事件B(A)发生的概率没有影响,相互独立事件同时发生的概率P(AB)=P(A)*P(B)。

第8题:

有两个事件A和B,事件A的发生与否不影响事件B发生的概率,事件B是否发生与A发生的概率同样无关,那么我们就说两个事件就概率而言是( )的。

A.互不相容

B.独立

C.互补

D.相关


正确答案:B

第9题:

事件出现的概率越大表示该事件的信息量越大。()


答案:错
解析:

第10题:

一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为()。


正确答案:其发生概率对数的负值