ca88手机版登录官网BAT机器学习面试1000修系列(第1~10开)

前言

2010~2015年,July博客整理了上千道微软等店铺之面试题,侧重数据结构、算法、海量数据处理,详见:http://blog.csdn.net/column/details/ms100.html

强调两点:
虽然仍系列主要都是机上、深度上相关的试题,并凭其他类型的题,但非意味应聘机器上或深上时面试官就偏偏问这简单件,虽是开多少还是AI相关,基本的言语(比如Python)、编码coding能力、数据结构、算法、计算机体系布局、操作系统、概率统计基本还是作IT必备,也不能不掌握。对于数据结构和算法,一哟,重点推荐前面说的微软面试100书写系列;二吧,多刷leetcode,看1000鸣题不如实际动手刷100志。

BAT机器学习面试1000题系列

1.呼吁简要介绍下SVM

SVM,全称是support vector
machine,中文名叫支持为量机。SVM是一个面向数据的归类算法,它的目标是也确定一个分拣超平面,从而将不同之数量分隔开。
扩大:这里发出篇稿子详细介绍了SVM的法则、推导,《支持为量机通俗导论(理解SVM的老三叠境界)》。此外,这里发生只视频为是有关SVM的演绎:《纯白板手推SVM》

2.请求简要介绍下tensorflow的计算图

@寒小阳:Tensorflow是一个透过计算图的款式来发挥计算的编程系统,计算图也受数据流图,可以管计算图看做是均等种植起向图,Tensorflow中的各国一个计算都是计算图上之一个节点,而节点内的度描述了算中的因关系。

ca88手机版登录官网 1

3.央问GBDT和XGBoost的分是什么?

@Xijun
LI:
xgboost类似于gbdt的优化版,不论是精度还是效率达还生矣晋级。与gbdt相比,具体的亮点有:1.损失函数是故泰勒展式二项逼近,而非是像gbdt里之就是同阶导数2.针对性养的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性3.节点分裂的措施各异,gbdt是因此的gini系数,xgboost是经优化推导后底再多详见:合学习总结

4.在k-means或kNN,我们是因此欧氏距离来计量最近底邻家之间的偏离。为什么不用曼哈顿距离?

曼哈顿离只有算水平或垂直距离,有维度的限定。另一方面,欧氏距离而用来其它空间的偏离计算问题。因为,数据点可以存在被其他空间,欧氏距离是再度管用之选择。
诸如:想象一下国际象棋棋盘,象或车所召开的走是由于曼哈顿距离计算的,因为其是以个别的水准与直方向开的移动。

5.百度2015校招机器学习笔试题

百度2015校招机器学习笔试题

6.简单易行说说特征工程

ca88手机版登录官网 2

达到图自:http://www.julyedu.com/video/play/18

7.关于LR

@rickjin:将LR从头到脚都给说同样不折不扣。建模,现场数学推理,每种解法的法则,正则化,LR和maxent模型啥关系,lr为底比线性回归好。有不少会晤坐答案的食指,问逻辑细节就乱了。原理都见面?
那就问工程,并行化怎么开,有几乎栽并行化方式,读了如何开源之实现。还会见,那就是准备了了吧,顺便逼问LR模型发展历史。

ca88手机版登录官网 3

另外,关于答案就篇文章可做参考:

机器上由入门到放弃的逻辑回归

机械上算法和Python实践的逻辑回归

8.overfitting怎么化解?
dropout、regularization、batch normalizatin
参考:
机上中防了拟合方法

9.LR同SVM的关联和分

@朝阳短暂
联系:
1、LR和SVM都可以拍卖分类问题,且一般都用来拍卖线性二分类问题(在改良之状况下好处理多分类问题)
2、两单办法还可以多不同之正则化项,如l1、l2等等。所以当过剩试被,两种植算法的结果是死接近的。
区别:
1、LR是参数模型,SVM是非ca88手机版登录官网参数模型。
2、从目标函数来拘禁,区别在于逻辑回归下的是logistical
loss,SVM采用的是hinge
loss.这点儿单损失函数的目的都是充实对分类影响较充分的数据点的权重,减少以及分类关系比较小之数据点的权重。
3、SVM的处理方式是只是考虑support
vectors,也尽管是跟归类最相关的少数触及,去上分类器。而逻辑回归通过非线性映射,大大减弱多少了距离分类平面较远之接触之权重,相对提升了与分类最相关的数据点的权重。
4、逻辑回归相对来说模型更简约,好明,特别是周边线性分类时比便宜。而SVM的敞亮与优化相对来说复杂一些,SVM转化为双双问题后,分类就需要计算和个别几只支持向量的距离,这个当进行复杂核函数计算时优势很醒目,能够大大简化模型和计量。
5、logic 能开的
svm能做,但恐怕以准确率达发题目,svm能举行的logic有的召开不了。
来源:http://blog.csdn.net/timcompp/article/details/62237986

10.LR和线性回归之界别及联络

@nishizhen:个人感觉逻辑回归和线性回归第一都是广义的线性回归,其次经典线性模型的优化目标函数是极端小二趁,而逻辑回归则是似然函数,另外线性回归在合实数域范围外展开前瞻,敏感度一致,而分类范围,需要在[0,1]。逻辑回归就是均等栽减多少预测范围,将预计值限定为[0,1]里面的同一种植回归模型,因而对这类似题目吧,逻辑回归之鲁棒性比线性回归之和谐。
@乖乖癞皮狗:逻辑回归的模型本质上是一个线性回归模型,逻辑回归都是以线性回归为理论支撑之。但线性回归模型无法完成sigmoid的非线性形式,sigmoid可以轻松处理0/1分类问题。

ca88手机版登录官网 4

发表评论

电子邮件地址不会被公开。 必填项已用*标注