ca88手机版登录官网BAT机器学习面试1000开系列(第1~10开)

前言

2010~2015年,July博客整理了上千鸣微软等店铺之面试题,侧重数据结构、算法、海量数据处理,详见:http://blog.csdn.net/column/details/ms100.html

强调两接触:
虽说论系列重大还是机械上、深度上有关的课题,并随便其它门类的修,但无表示应聘机器上或者深度上时面试官就独自问这点儿码,虽是举行多少要AI相关,基本的言语(比如Python)、编码coding能力、数据结构、算法、计算机体系布局、操作系统、概率统计基本都是搞IT必备,也必须掌握。对于数据结构和算法,一啊,重点推介前面说的微软面试100书系列;二哟,多刷leetcode,看1000道题不如实际动手刷100鸣。

BAT机器学习面试1000开系列

1.求简要介绍下SVM

SVM,全称是support vector
machine,中文名叫支持为量机。SVM是一个面向数据的分类算法,它的对象是啊确定一个分拣超平面,从而以不同的数目分隔开。
扩张:这里发生首文章详细介绍了SVM的法则、推导,《支持为量机通俗导论(理解SVM的老三重叠境界)》。此外,这里来只视频为是关于SVM的演绎:《纯白板手推SVM》

2.央简要介绍下tensorflow的计算图

@寒小阳:Tensorflow是一个经计算图的花样来发挥计算的编程系统,计算图也为数据流图,可以管计算图看做是同一种有往图,Tensorflow中的诸一个乘除都是计算图上之一个节点,而节点内的无尽描述了匡中的负关系。

ca88手机版登录官网 1

3.呼吁问GBDT和XGBoost的分别是呀?

@Xijun
LI:
xgboost类似于gbdt的优化版,不论是精度还是效率上都发出矣晋级。与gbdt相比,具体的优点有:1.损失函数是故泰勒展式二码逼近,而休是像gbdt里之饶是平阶导数2.针对培训的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性3.节点分裂的主意各异,gbdt是为此底gini系数,xgboost是通过优化推导后底还多详见:并学习总结

4.以k-means或kNN,我们是因此欧氏距离来计量最近之邻里间的离开。为什么不要曼哈顿距离?

曼哈顿相距就计算水平还是垂直距离,有维度的限。另一方面,欧氏距离而用以其他空间的离计算问题。因为,数据点可以有吃外空间,欧氏距离是再度管用之选。
像:想象一下国际象棋棋盘,象或车所做的移位是由曼哈顿距离计算的,因为她是于个别的水准跟直方向开的活动。

5.百度2015校招机器学习笔试题

百度2015校招机器学习笔试题

6.简说说特征工程

ca88手机版登录官网 2

达图来自:http://www.julyedu.com/video/play/18

7.关于LR

@rickjin:拿LR从头到脚都受说同样整个。建模,现场数学推理,每种解法的规律,正则化,LR和maxent模型啥关系,lr为啥比线性回归好。有很多见面坐答案的人头,问逻辑细节就乱了。原理都见面?
那便咨询工程,并行化怎么开,有几乎种植并行化方式,读了怎么开源之贯彻。还会,那就是准备结束了吧,顺便逼问LR模型发展历史。

ca88手机版登录官网 3

除此以外,关于答案就首文章好开参考:

机械上由入门到放弃的逻辑回归

机上算法和Python实践的逻辑回归

8.overfitting庸解决?
dropout、regularization、batch normalizatin
参考:
机上着预防了拟合方法

9.LR及SVM的联络和分

@朝阳短命
联系:
1、LR和SVM都可以拍卖分类问题,且一般都用来拍卖线性二分类问题(在改进之情状下好拍卖多分类问题)
2、两单主意都得以增加不同之正则化项,如l1、l2等等。所以当诸多尝试中,两种植算法的结果是甚类似的。
区别:
1、LR是参数模型,SVM是非参数模型。
2、从目标函数来拘禁,区别在逻辑回归下的凡logistical
loss,SVM采用的是hinge
loss.这有限独损失函数的目的都是充实对分类影响于充分的数据点的权重,减少与分类关系比较小之数据点的权重。
3、SVM的处理办法是不过考虑support
vectors,也尽管是与归类最相关的个别接触,去念分类器。而逻辑回归通过非线性映射,大大减弱多少了离分类平面较远之触发之权重,相对提升了和分类最相关的数据点的权重。
4、逻辑ca88手机版登录官网回归相对来说模型更简便,好理解,特别是大规模线性分类时于便于。而SVM的明和优化相对来说复杂一些,SVM转化为对问题后,分类就需要计算和个别几乎独支持向量的离,这个以拓展复杂核函数计算时优势十分醒目,能够大大简化模型和计算。
5、logic 能举行的
svm能举行,但或许于准确率达生题目,svm能开的logic有的做不了。
来源:http://blog.csdn.net/timcompp/article/details/62237986

10.LR和线性回归的区分及关系

@nishizhen:个人感觉逻辑回归和线性回归第一都是广义的线性回归,其次经典线性模型的优化目标函数是极其小二乘,而逻辑回归则是似然函数,另外线性回归在全部实数域范围外开展展望,敏感度一致,而分类范围,需要以[0,1]。逻辑回归就是均等种减多少预测范围,将预计值限定为[0,1]中的同样栽回归模型,因而对当下仿佛题材的话,逻辑回归之鲁棒性比线性回归之祥和。
@乖乖癞皮狗:逻辑回归的型本质上是一个线性回归模型,逻辑回归都是以线性回归为理论支持的。但线性回归模型无法到位sigmoid的非线性形式,sigmoid可以轻松处理0/1分类问题。

ca88手机版登录官网 4

发表评论

电子邮件地址不会被公开。 必填项已用*标注