机器学习小测及答案

已知总体X服从参数为λ的指数分布,设X1,X2,…,Xn是子样观察值,求λ的极大似然估计。


参考答案:


剪枝是决策树学习算法对付“过拟合”的主要手段()

此题为判断题(对,错)。


正确答案:正确


设函数f(x)=x4-4x+5.

(I)求f(x)的单调区间,并说明它在各区间的单调性;

(Ⅱ)求f(x)在区间[0,2]的最大值与最小值.


正确答案:


“过拟合”只在监督学习中出现,在非监督学习中,没有“过拟合”,这是()

A.对的

B.错的


正确答案:B


对应GradientBoostingtree算法,以下说法正确的是()

1.当增加最小样本分裂个数,我们可以抵制过拟合

2.当增加最小样本分裂个数,会导致过拟合

3.当我们减少训练单个学习器的样本个数,我们可以降低variance

4.当我们减少训练单个学习器的样本个数,我们可以降低bias

A.2和4

B.2和3

C.1和3

D.1和4


正确答案:C


1、 监督学习与无监督学习的主要区别是什么?分别列举应用两者的例子(或算法名称)。2、 在梯度下降算法中有时会出现梯度下降来回振荡,所需时间较长。可以通过什么方法使其收敛更快?例如:原参数为:X1=size取值范围: 0200;X2=number取值范围: 15 3、 假设房价预测模型为:h(x)=?0+ ?1X1+ ?2X2,其中 X1、X2分别为房间的开间、进深长度。现在选择新的特征-房间面积X,得到新的学习算法。已知训练集中面积与房价的关系如图所示:请构造 合适 的多项式作为新的学习算法。4、 简述自己对欠拟合和过拟合的理解,必要时可画图辅助说明。5、 有如图曲线f(? ) 。欲求 f( ?)=0 时的 ? 值,请用牛顿迭代法在图中画出两次迭代的示意图。 ? 初始值取4.5。6、 请写出指数分布族的一般表达形式。7、用极大似然估计求算? 使得最大。简要写出推导步8、简述对laplace 平滑理解,可以举例说明;9、 按自己的理解简述参数学习算法和非参数学习算法的区别;10、按自己的理解简述判别学习算法和生成算法的区别。参考答案:并非标准答案,只要理解正确即可。1、主要区别是监督学习中有属性的标签,而无监督学习则没有;例子:监督学习根据房价与房间面积对房价进行预测;无监督学习网页搜索将相关新闻聚在一起算法:监督学习支持向量机、线性回归决策树神经网络;无监督学习k-聚类等各种聚类方法、主成分分析2、可利用特征缩放方法例如:原参数为X1=size取值范围: 0200 X2=number取值范围: 15 利用特征缩放方法后变为X1=size/200 X2=number/5 3、h(x)=?0+ ?1 X+ ?2 X2+ ?3X3 4、首先欠拟合、过拟合没有明确的定义分界明显的未充分利用数据,拟合结果不符合预期,甚至不能有效拟合训练集,我们可以认为欠拟合;考虑过多,超出自变量的一般含义维度,过多考虑噪声,会造成过拟合。可以认为预测准确率、召回率都比理论上最佳拟合函数低很多,则为欠拟; 训练集预测效果好,测试集预测效果差,则为过拟合。或者简单的讲:对于特征集过小的情况,称之为欠拟合( under fitting ) ;对于特征集过大的情况,称之为过拟合( overfitting )例如:给定一个数据集,根据x 预测 y. 最左边的函数为,并不能很好的拟合数据;中间的加了一个额外的特性,函数为,稍微更好地拟合了数据;似乎我们增加越多的特性,拟合程度越好; 但是增加太多的特性是很危险的,最右边的图是一个五阶的多项式,虽然很好的拟合了给定的数据集,但是这个并不是一个很好的预测函数。欠拟合( underfitting ):很明显有一些没有被模型捕获的结构,比如说最左边的图. 过拟合 (overfitting) :最右边的就是一个过拟合的例子. 因此说,特性的选择对于学习算法 的性能来说是很重要的!5、两次迭代还得再往下画一步6、若一类概率分布可以写成如下形式,那么它就属于指数分布族: - 自然参数,通常是一个实数T(y) 充分统计量,通常,T(y)=y,实际上是一个概率分布的充分统计量(统计学知识)对于给定的a,b,T三个函数,上式定义了一个以为参数的概率分布集合,即改变可以得到不同的概率分布7、令对 求导的值为零,求得即可。8、在统计上来说,在你有限的训练集中没有见过就认为概率是0 是不科学的为了上述问题,我们用laplace 平滑来优化这个问题. 分子加 1,分母加k(j 的取值范围的大小)。可以举适当的例子说明。9、参数学习算法( parametric learning algorithm ):是一类有固定数目参数,以用来进行数据拟合的算法。设该固定的参数集合为。线性回归即使参数学习算法的一个例子非参数学习算法(Non-parametric learning algorithm):参数数量会随 m (训练集大小)增长 的算法。通常定义为参数数量虽m 线性增长。换句话说,就是算法所需要的东西会随着训练集合线性增长,算法的维持是基于整个训练集合的,即使是在学习以后。10、判别学习算法 (discriminative learning algorithm ) :直接学习p(y|x)(比如说 logistic 回归)或者说是从输入直接映射到0,1. 生成学习算法(generative learning algorithm ):对 p(x|y)(和 p(y))进行建模 . 简单的来说, 判别学习算法的模型是通过一条分隔线把两种类别区分开,而生成学习算法是对两种可能的结果分别进行建模,然后分别和输入进行比对,计算出相应的概率。

已知f为单链表的表头指针, 链表中存储的都是整型数据,试写出实现下列运算的递归算法: ① 求链表中的最大整数; ② 求链表的结点个数; ③ 求所有整数的平均值。


参考答案:
  [算法描述]
  ①
  int GetMax(LinkList p)
  {
  if(!p->next)
  return p->data;
  else
  {
  int max=GetMax(p->next);
  return p->data>=max ? p->data:max;
  }
  }
  ②
  int GetLength(LinkList p)
  {
  if(!p->next)
  return 1;
  else
  {
  return GetLength(p->next)+1;
  }
  }
  ③
  double GetAverage(LinkList p , int n)
  {
  if(!p->next)
  return p->data;
  else
  {
  double ave=GetAverage(p->next,n-1);
  return (ave*(n-1)+p->data)/n;
  }
  }


用迭代法求方程f(x)=x^3-x-1=0的根,取x0=1.5。()

A、1.5

B、1.35721

C、1.32494

D、1.32588


参考答案:C


高斯—牛顿迭代法中.可以通过以往的经验选定初始值。()

此题为判断题(对,错)。


参考答案:√


补充程序Ccon031.C,使其用牛顿迭代法求方程2x3-4x2+3x-6=0在1.5附近的根。


/**/main()/**/
}/**/while/**/(fabs(x-x0)>=1e-6);


某一种8位计算机,其十六进制常数的定义是以0x或0X开头的十六进制整数,其取值范围 为-7f~7f(不区分大小写字母),如0x13、0x6A、-0x3c。 (1)请写出弱一般、强一般、弱健壮等价类测试用例 (2)请写出强健壮等价类的测试用例个数 要求写出分析过程


正确答案:输入条件 有效等价类 无效等价类 开头字符 由0x或0X开头 (1) 以字母开头 以非0数字开头 (2)(3) 数值字符 数字或A—F的字母 (4) A—F以外的字母 (5) 数值 -7f且≤7f (6) -7f >7f (7)(8) 弱一般、强一般等价类测试用例 {0x4F} 弱健壮等价类测试用例 {0x4f,,ax4f,1x4f,ox4g, 0x8f,-0x8f,0x8f} 强健壮等价类的测试用例个数:18

更多 “机器学习小测及答案” 相关考题
考题 单选题设f(x)在(-a,a)是连续的偶函数,且当0()A f(0)是f(x)在(-a,A.的极大值,但不是最大值B B.f(0)是f(x)在(-a,的最小值C C.f(0)足f(x)在(-a,的极大值,也是最大值D f(0)是曲线y=f(x)的拐点的纵坐标正确答案:B解析:暂无解析

考题 在曲线的光滑处理方法中,光滑后的曲线一定通过已知点的处理方法是()A、曲线拟合法B、线形迭代法C、曲线内插法D、曲线跟踪法正确答案:C

考题 单选题一个随机抽取的样本包括100个数据,用指数分布拟合时,以极大似然估计去求分布的参数,此时极大化的似然函数值为-159.4。继续用伽玛分布拟合这组数据,如果根据似然比检验,伽玛分布的拟合效果在5%显著性水平下优于指数分布的话,则用极大似然估计求伽玛分布模型的参数时,最大化的似然函数值至少为(  )。A -156.45B -137..46C -154.37D -147.96E -157.48正确答案:C解析:根据似然比检验的评分标准得,若与单参数模型相比较,两参数模型比单参数模型的极大似然函数值增加了至少1.92,则采用两参数模型。又由题意知,伽玛分布的拟合效果在5%显著性水平下优于指数分布,又伽玛分布有两个参数,指数分布有一个参数,又因为用指数分布拟合样本时,极大化的似然函数值为-159.4。所以用伽玛分布拟合样本时,极大化的似然函数值应至少为-159.4+1.92=-157.48。

考题 请写出5种学习策略训练的常用模式。正确答案:35.(1)指导教学模式; (2)程序化训练模式;(3)完形训练模式;(4)交互教学模式;(5)合作学习模式。

考题 设总体X的概率密度为f(x)=,其中未知参数θ>0,设X1,X2,…,X是来自总体X的简单样本.(1)求θ的最大似然估计量;(2)该估计量是否是无偏估计量?说明理由.答案:解析:

考题 解非线性方程f(x)=0的牛顿迭代法具有()收敛。正确答案:局部平方

考题 问答题假设通信用的报文由9个字母A、B、C、D、E、F、G、H和I组成,它们出现的频率分别是:10、20、5、15、8、2、3、7和30。请请用这9个字母出现的频率作为权值求:写出每个字符的哈夫曼编码。正确答案:每个字符的哈夫曼编码为:A:100,B:11,C://1010,D://000,E://0010,F://10110,G://10111,H:0011,I:01。解析:暂无解析

考题 详细介绍用高次差法或多项式拟合法修复整周跳变的算法。正确答案:高次差法。对于一组不含整周跳变的实测数据,在相邻的两个观测值间依次求差而求得一次差,由于一次差实际上就是相邻两个观测历元卫星至接收机的距离之差,也等于两个历元间卫星的径向速度的平均值与采样间隔的乘积。因此径向的变化在求一次差后就要平缓得多。同样,在两个相邻的一次差间继续求差就得二次差。二次差为卫星的径向加速度的均值与采样间隔乘积,变化更加平缓。采用同样的办法求至四次差时,其值已趋于零,其残余误差已呈现偶然特性。对于存在周跳的实测数据,如果从某个观测值开始有100周的周跳,就将使各次差产生相应的误差,而且误差的量会逐次放大,根据这一原理可探测出周跳发生的位置及其大小。

考题 设总体X的概率分布为是未知参数,用样本值3,1,3,0,3,1,2,3求θ的矩估计值和最大似然估计值,答案:解析:

考题 设总体X~F(x,θ)=,样本值为1,1,3,2,l,2,3,3,求θ的矩估计和最大似然估计.答案:解析:(1)X为离散型随机变量,其分布律为,E(X)=3-3θ.=2,令3-3θ=2得θ的矩估计值为. (2)L(1,1,3,2,1,2,3,3;θ)=P(X=l)P(X=1)…P(X=3)=θ^3×θ^2×(1-。得θ的最大似然估计值为2θ)^3,InL(θ)-51nθ+31n(l-2θ),令