BAT机器学习面试1000题类别ca88手机版登录官网

前言

2010~2015年,July博客整理过上千道微软等营业所的面试题,侧重数据结构、算法、海量数据处理,详见:http://blog.csdn.net/column/details/ms100.html

强调两点:
虽说本系列重大都是机器学习、深度学习有关的考题,并无其他类型的题,但不意味应聘机器学习或深度学习时面试官就只问这两项,虽是做多少或AI相关,基本的语言(比如Python)、编码coding能力、数据结构、算法、总结机连串布局、操作系统、概率总计基本都是搞IT必备,也必须控制。对于数据结构和算法,一者,重点引进前面说的微软面试100题体系;二者,多刷leetcode,看1000道题不如实际出手刷100道。

BAT机器学习面试1000题系列

1.请简要介绍下SVM

SVM,全称是support vector
machine,粤语名叫协理向量机。SVM是一个面向数据的归类算法,它的目的是为确定一个分拣超平面,从而将不同的数目分隔开。
恢宏:这里有篇著作详细介绍了SVM的原理、推导,《补助向量机通俗导论(精晓SVM的三层境界)》。另外,这里有个视频也是关于SVM的推理:《纯白板手推SVM》

2.请简要介绍下tensorflow的总括图

@寒小阳:Tensorflow是一个通过总结图的款式来表述统计的编程系统,总计图也叫数据流图,可以把总计图看做是一种有向图,Tensorflow中的每一个测算都是总括图上的一个节点,而节点之间的边描述了总结之间的借助关系。

ca88手机版登录官网 1

3.请问GBDT和XGBoost的界别是怎么着?

@Xijun
LI:
xgboost类似于gbdt的优化版,不论是精度依然效能上都有了晋级。与gbdt相相比较,具体的助益有:1.损失函数是用Taylor展式二项逼近,而不是像gbdt里的就是一阶导数2.对树的布局举行了正则化约束,避免模型过度复杂,降低了过拟合的可能性3.节点分裂的模式各异,gbdt是用的gini系数,xgboost是透过优化推导后的更多详见:合并学习总结

4.在k-means或kNN,大家是用欧氏距离来总结近期的邻居之间的距离。为何不要曼哈顿距离?

曼哈顿相差只总括水平或垂直距离,有维度的限定。另一方面,欧氏距离可用来其余空间的相距总计问题。因为,数据点可以存在于其他空间,欧氏距离是更管用的接纳。
比如:想象一下国际象棋棋盘,象或车所做的移动是由曼哈顿距离总括的,因为它们是在个其余水准和垂直方向做的活动。

5.百度2015校招机器学习笔试题

百度2015校招机器学习笔试题

6.大概说说特征工程

ca88手机版登录官网 2

上图来源:http://www.julyedu.com/video/play/18

7.关于LR

@rickjin:ca88手机版登录官网,把LR从头到脚都给讲几遍。建模,现场数学推理,每种解法的原理,正则化,LR和maxent模型啥关系,lr为什么比线性回归好。有过多会背答案的人,问逻辑细节就糊涂了。原理都会?
这就问工程,并行化如何是好,有两种并行化格局,读过如何开源的贯彻。还会,这就准备收了啊,顺便逼问LR模型发展历史。

ca88手机版登录官网 3

除此以外,关于答案这篇小说可以做参考:

机器学习从入门到舍弃之逻辑回归

机器学习算法与Python实践之逻辑回归

8.overfitting怎么解决?
dropout、regularization、batch normalizatin
参考:
机械学习中预防过拟合方法

9.LR和SVM的联络与区别

@朝阳短暂
联系:
1、LR和SVM都可以处理分类问题,且一般都用于拍卖线性二分拣问题(在改正的情状下得以拍卖多分类问题)
2、四个措施都可以追加不同的正则化项,如l1、l2等等。所以在诸多试行中,两种算法的结果是很类似的。
区别:
1、LR是参数模型,SVM是非参数模型。
2、从目的函数来看,区别在于逻辑回归选用的是logistical
loss,SVM采纳的是hinge
loss.这五个损失函数的目标都是充实对分类影响较大的数据点的权重,缩短与分类关系较小的数据点的权重。
3、SVM的处理措施是只考虑support
vectors,也就是和分类最相关的个别点,去学学分类器。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重。
4、逻辑回归相对来说模型更简单,好通晓,特别是常见线性分类时相比较方便。而SVM的精通和优化相对来说复杂一些,SVM转化为双双问题后,分类只需要统计与个别多少个协助向量的距离,那一个在举行复杂核函数总结时优势很明朗,可以大大简化模型和计量。
5、logic 能做的
svm能做,但可能在准确率上有问题,svm能做的logic有的做不了。
来源:http://blog.csdn.net/timcompp/article/details/62237986

10.LR与线性回归的区别与关系

@nishizhen:个人感觉逻辑回归和线性回归第一都是广义的线性回归,其次经典线性模型的优化目的函数是很小二乘,而逻辑回归则是似然函数,另外线性回归在漫天实数域范围内展开预测,敏感度一致,而分类范围,需要在[0,1]。逻辑回归就是一种减小预测范围,将估量值限定为[0,1]间的一种回归模型,因此对于这类问题的话,逻辑回归的鲁棒性比线性回归的祥和。
@乖乖癞皮狗:逻辑回归的模子本质上是一个线性回归模型,逻辑回归都是以线性回归为辩解帮忙的。但线性回归模型无法完成sigmoid的非线性格局,sigmoid可以轻松处理0/1分类问题。

ca88手机版登录官网 4

发表评论

电子邮件地址不会被公开。 必填项已用*标注