BAT机器学习面试1000修系列(第1~10开)

前言

2010~2015年,July博客整理了上千鸣微软等营业所之面试题,侧重数据结构、算法、海量数据处理,详见:http://blog.csdn.net/column/details/ms100.html

强调两碰:
虽然仍系列重要都是机上、深度上相关的考题,并凭其他种类的修,但非表示应聘机器上或者深度上时面试官就单单问即点儿起,虽是召开多少或者AI相关,基本的语言(比如Python)、编码coding能力、数据结构、算法、计算机体系布局、操作系统、概率统计基本还是作IT必备,也非得掌握。对于数据结构和算法,一吧,重点推介前面说的微软面试100书系列;二者,多刷leetcode,看1000鸣题不如实际动手刷100道。

BAT机器学习面试1000挥毫系列

1.央简要介绍下SVM

SVM,全称是support vector
machine,中文名叫支持为量机。SVM是一个面向数据的分类算法,它的目标是为确定一个分类超平面,从而将不同的多寡分隔开。
扩大:这里发出首文章详细介绍了SVM的规律、推导,《支持为量机通俗导论(理解SVM的老三重合境界)》。此外,这里产生只视频为是关于SVM的演绎:《纯白板手推SVM》

2.求简要介绍下tensorflow的计算图

@寒小阳:Tensorflow是一个经计算图的款式来发挥计算的编程系统,计算图也被数据流图,可以管计算图看做是千篇一律栽出于图,Tensorflow中之每一个计都是计算图上之一个节点,而节点内的限度描述了匡中的乘关系。

ca88手机版登录官网 1

3.求问GBDT和XGBoost的别是呀?

@Xijun
LI:
xgboost类似于gbdt的优化版,不论是精度还是效率达还发生矣提升。与gbdt相比,具体的长有:1.损失函数是因此泰勒展式二桩逼近,而未是如gbdt里的哪怕是同等阶导数2.针对性培养的结构进行了正则化约束,防止模型过度复杂,降低了了拟合的可能3.节点分裂的方法不同,gbdt是故之gini系数,xgboost是经优化推导后底重多详见:并学习总结

4.于k-means或kNN,我们是为此欧氏距离来计算最近底近邻之间的离。为什么不用曼哈顿距离?

曼哈顿距离仅算水平要垂直距离,有维度的界定。另一方面,欧氏距离而用来其他空间的偏离计算问题。因为,数据点可以有被任何空间,欧氏距离是再管用的选项。
譬如说:想象一下国际象棋棋盘,象或车所召开的运动是出于曼哈顿距离计算的,因为它们是在独家的档次以及垂直方向开的倒。

5.百度2015校招机器学习笔试题

百度2015校招机器学习笔试题

6.略说说特征工程

ca88手机版登录官网 2

达图来源:http://www.julyedu.com/video/play/18

7.关于LR

@rickjin:把LR从头到脚都深受讲同样全方位。建模,现场数学推理,每种解法的法则,正则化,LR和maxent模型啥关系,lr为底比线性回归好。有广大会背着答案的人数,问逻辑细节就乱了。原理都见面?
那就算咨询工程,并行化怎么开,有几乎栽并行化方式,读了怎样开源的落实。还会见,那就算准备了了吧,顺便逼问LR模型发展历史。

ca88手机版登录官网 3

除此以外,关于答案就首文章可以举行参考:

机上由入门到放弃的逻辑回归

机上算法和Python实践的逻辑回归

8.overfitting庸解决?
dropout、regularization、batch normalizatin
参考:
机上着防了拟合方法

9.LR暨SVM的维系与分

@朝阳短短
联系:
1、LR和SVM都得以处理分类问题,且一般都用来拍卖线性ca88手机版登录官网二分类问题(在改善之情况下足拍卖多分类问题)
2、两只法子都得多不同的正则化项,如l1、l2等等。所以在过剩试被,两种算法的结果是好类似的。
区别:
1、LR是参数模型,SVM是非参数模型。
2、从目标函数来拘禁,区别在于逻辑回归下的是logistical
loss,SVM采用的凡hinge
loss.这点儿个损失函数的目的都是增加对分类影响较充分之数据点的权重,减少以及分类关系比小之数据点的权重。
3、SVM的处理办法是单纯考虑support
vectors,也不怕是同归类最相关的少数点,去读书分类器。而逻辑回归通过非线性映射,大大减弱多少了离开分类平面较远的接触之权重,相对提升了与分类最相关的数据点的权重。
4、逻辑回归相对来说模型更简明,好掌握,特别是大线性分类时较便利。而SVM的知情以及优化相对来说复杂一些,SVM转化为双问题后,分类就待算和个别几乎单支持向量的距离,这个于展开复杂核函数计算时优势很醒目,能够大大简化模型和计量。
5、logic 能做的
svm能举行,但也许于准确率达发生题目,svm能开的logic有的做不了。
来源:http://blog.csdn.net/timcompp/article/details/62237986

10.LR跟线性回归之区别与沟通

@nishizhen:个人感觉逻辑回归和线性回归第一都是广义的线性回归,其次经典线性模型的优化目标函数是极其小二乘胜,而逻辑回归则是似然函数,另外线性回归在普实数域范围外展开前瞻,敏感度一致,而分类范围,需要在[0,1]。逻辑回归就是一致种植减多少预测范围,将预计值限定为[0,1]内部的平种回归模型,因而对这好像题材的话,逻辑回归之鲁棒性比线性回归之协调。
@乖乖癞皮狗:逻辑回归之型本质上是一个线性回归模型,逻辑回归都是盖线性回归为辩解支撑之。但线性回归模型无法形成sigmoid的非线性形式,sigmoid可以轻松处理0/1分类问题。

ca88手机版登录官网 4

发表评论

电子邮件地址不会被公开。 必填项已用*标注