从牛客网找来得题目,解析是题目下的高赞答案。
1.下面有关分类算法的准确率,召回率,F1 值的描述,错误的是?
a.准确率是检索出相关文档数与检索出的文档总数的比率,衡量的是检索系统的查准率
b.召回率是指检索出的相关文档数和文档库中所有的相关文档数的比率,衡量的是检索系统的查全率
c.正确率、召回率和 F 值取值都在0和1之间,数值越接近0,查准率或查全率就越高
d.为了解决准确率和召回率冲突问题,引入了F1分数
答案:C
解析:对于二类分类问题常用的评价指标是精准度(precision)与召回率(recall)。通常以关注的类为正类,其他类为负类,分类器在测试数据集上的预测或正确或不正确,4种情况出现的总数分别记作:
4.SPSS的界面中,以下是主窗口是( )
答案:数据编辑窗口。
5.在Logistic Regression 中,如果同时加入L1和L2范数,会产生什么效果()
a.可以做特征选择,并在一定程度上防止过拟合
b.能解决维度灾难问题
c.能加快计算速度
d.可以获得更准确的结果
答案:A
解析:此解析是我看特征选择的博客看到的,是做特征选择看可以使用L1,L2范数,具体如下:
L1范数具有系数解的特性,但是要注意的是,L1没有选到的特征不代表不重要,原因是两个高相关性的特征可能只保留一个。如果需要确定哪个特征重要,再通过交叉验证。
为什么L1,L2范数可以防止过拟合呢
在代价函数后面加上正则项,L1即是Losso回归,L2是岭回归
但是它为什么能防止过拟合呢?
奥卡姆剃刀原理:能很好的拟合数据且模型简单
模型参数在更新时,正则项可使参数的绝对值趋于0,使得部分参数为0,降低了模型的复杂度(模型的复杂度由参数决定),从而防止了过拟合。提高模型的泛化能力。
6.一般,k-NN最近邻方法在( )的情况下效果较好
a.样本较多但典型性不好
b.样本较少但典型性好
c.样本呈团状分布
d.样本呈链状分布
答案:B
解析:样本呈团状颇有迷惑性,这里应该指的是整个样本都是呈团状分布,这样kNN就发挥不出其求近邻的优势了,整体样本应该具有典型性好,样本较少,比较适宜。
7.以下几种模型方法属于判别式模型的有()
a.混合高斯
b.CRF
c.区分度训练
d.隐马尔科夫模型
答案:BC
解析:判别式模型与生成式模型的区别
产生式模型(Generative Model)与判别式模型(Discrimitive Model)是分类器常遇到的概念,它们的区别在于:
对于输入x,类别标签y:产生式模型估计它们的联合概率分布P(x,y)
判别式模型估计条件概率分布P(y|x)
产生式模型可以根据贝叶斯公式得到判别式模型,但反过来不行。
Andrew Ng在NIPS2001年有一篇专门比较判别模型和产生式模型的文章:
On Discrimitive vs. Generative classifiers: A comparision of logistic regression and naive Bayes
(http://robotics.stanford.edu/~ang/papers/nips01-discriminativegenerative.pdf)
判别式模型常见的主要有:
Logistic Regression
SVM
Traditional Neural Networks
Nearest Neighbor
CRF
Linear Discriminant Analysis
Boosting
Linear Regression
产生式模型常见的主要有:
Gaussians
Naive Bayes
Mixtures of Multinomials
Mixtures of Gaussians
Mixtures of Experts
HMMs
Sigmoidal Belief Networks, Bayesian Networks
Markov Random Fields
Latent Dirichlet Allocation
8.下列不是SVM核函数的是:
a.多项式核函数
b.logistic核函数
c.径向基核函数
d.Sigmoid核函数
答案:B
解析:SVM核函数包括线性核函数、多项式核函数、径向基核函数、高斯核函数、幂指数核函数、拉普拉斯核函数、ANOVA核函数、二次有理核函数、多元二次核函数、逆多元二次核函数以及Sigmoid核函数。
9.已知一组数据的协方差矩阵P,下面关于主分量说法错误的是()
a.主分量分析的最佳准则是对一组数据进行按一组正交基分解, 在只取相同数量分量的条件下,以均方误差计算截尾误差最小
b.在经主分量分解后,协方差矩阵成为对角矩阵
c.主分量分析就是K-L变换
d.主分量是通过求协方差矩阵的特征值得到
答案:C
解析:K-L变换与PCA变换是不同的概念,PCA的变换矩阵是协方差矩阵,K-L变换的变换矩阵可以有很多种(二阶矩阵、协方差矩阵、总类内离散度矩阵等等)。当K-L变换矩阵为协方差矩阵时,等同于PCA。
10.机器学习中L1正则化和L2正则化的区别是?
a.使用L1可以得到稀疏的权值
b.使用L1可以得到平滑的权值
c.使用L2可以得到稀疏的权值
d.使用L2可以得到平滑的权值
答案:AD
解析:使用L1正则后的权值更新规则多了一项η * λ * sgn(w)/n,这一项当w为正时,更新后的w变小。当w为负时,更新后的w变大——因此它的效果就是让w往0靠,使网络中的权重尽可能为0,也就相当于减小了网络复杂度,防止过拟合。所以说L1可以得到更稀疏的权值。
11.关于线性回归的描述,以下正确的有:
a.基本假设包括随机干扰项是均值为0,方差为1的标准正态分布
b.基本假设包括随机干扰项是均值为0的同方差正态分布
c.在违背基本假设时,普通最小二乘法估计量不再是最佳线性无偏估计量
d.在违背基本假设时,模型不再可以估计
e.可以用DW检验残差是否存在序列相关性
f.多重共线性会使得参数估计值方差减小
答案:BCE
解析:一元线性回归的基本假设有
1、随机误差项是一个期望值或平均值为0的随机变量;
2、对于解释变量的所有观测值,随机误差项有相同的方差;
3、随机误差项彼此不相关;
4、解释变量是确定性变量,不是随机变量,与随机误差项彼此之间相互独立;
5、解释变量之间不存在精确的(完全的)线性关系,即解释变量的样本观测值矩阵是满秩矩阵;
6、随机误差项服从正态分布
违背基本假设的计量经济学模型还是可以估计的,只是不能使用普通最小二乘法进行估计。
当存在异方差时,普通最小二乘法估计存在以下问题: 参数估计值虽然是无偏的,但不是最小方差线性无偏估计。
杜宾-瓦特森(DW)检验,计量经济,统计分析中常用的一种检验序列一阶 自相关 最常用的方法。
所谓多重共线性(Multicollinearity)是指线性回归模型中的解释变量之间由于存在精确相关关系或高度相关关系而使模型估计失真或难以估计准确。影响