BAT机器学习面试1000书系列(第1~10书)

前言

2010~2015年,July博客整理了上千道微软等商家的面试题,侧重数据结构、算法、海量数据处理,详见:http://blog.csdn.net/column/details/ms100.html

强调两碰:
尽管如此以系列重要还是机器上、深度上有关的课题,并随便外种类的书,但切莫表示应聘机器上或者深上时面试官就特问即片项,虽是做多少或者AI相关,基本的语言(比如Python)、编码coding能力、数据结构、算法、计算机体系布局、操作系统、概率统计基本都是将IT必备,也必须控制。对于数据结构和算法,一哟,重点推介前面说之微软面试100修系列;二啊,多刷leetcode,看1000道题不如实际动手刷100鸣。

BAT机器学习面试1000书写系列

1.要简要介绍下SVM

SVM,全称是support vector
machine,中文名叫支持于量机。SVM是一个面向数据的分类算法,它的靶子是啊确定一个分拣超平面,从而以不同的数额分隔开。
扩张:这里产生篇文章详细介绍了SVM的原理、推导,《支持于量机通俗导论(理解SVM的老三交汇境界)》。此外,这里出个视频也是关于SVM的推理:《纯白板手推SVM》

2.要简要介绍下tensorflow的计算图

@寒小阳:Tensorflow是一个经过计算图的形式来抒发计算的编程系统,计算图也被数据流图,可以拿计算图看做是平栽出于图,Tensorflow中的每一个计都是计算图上的一个节点,而节点内的底限描述了匡中的依靠关系。

ca88手机版登录官网 1

3.呼吁问GBDT和XGBoost的分别是呀?

@Xijun
LI:
xgboost类似于gbdt的优化版,不论是精度还是效率上且有了晋升。与gbdt相比,具体的独到之处有:1.损失函数是用泰勒展式二桩逼近,而休是比如说gbdt里之即使是如出一辙阶导数2.针对培训之构造进行了正则化约束,防止模型过度复杂,降低了了拟合的可能3.节点分裂的点子不同,gbdt是因此之gini系数,xgboost是通过优化推导后底重复多详见:集成学习总结

4.以k-means或kNN,我们是因此欧氏距离来计量最近的街坊间的去。为什么不用曼哈顿距离?

曼哈顿距离仅算水平还是垂直距离,有维度的克。另一方面,欧氏距离而用于其它空间的离计算问题。因为,数据点可以存在吃其它空间,欧氏距离是重新实惠的挑选。
例如:想象一下国际象棋棋盘,象或车所召开的运动是由曼哈顿距离计算的,因为其是以独家的档次及直方向开的动。

5.百度2015校招机器学习笔试题

百度2015校招机器学习笔试题

6.简易说说特征工程

ca88手机版登录官网 2

达成图来源:http://www.julyedu.com/video/play/18

7.关于LR

@rickjin:把LR从头到脚都给讲同样全套。建模,现场数学推理,每种解法的法则,正则化,LR和maxent模型啥关系,lr为底比线性回归好。有那么些会面背着答案的人头,问逻辑细节就乱了。原理都见面?
那便咨询工程,并行化怎么开,有几乎种并行化方式,读了什么样开源之贯彻。还见面,那就是准备完毕了吧,顺便逼问LR模型发展历史。

ca88手机版登录官网 3

除此以外,关于答案就篇稿子可以开参考:

机上由入门到放弃的逻辑回归

机器上算法和Python实践的逻辑回归

8.overfitting庸解决?
dropout、regularization、batch normalizatin
参考:
机械上着防止了拟合方法

9.LR同SVM的关联与分

@朝阳不久
联系:
1、LR和SVM都得以处理分类问题,且一般还用于拍卖线性二分类问题(在改进之动静下可拍卖多分类问题)
2、两单方法还得以长不同之正则化项,如l1、l2等等。所以当众多尝试被,两种植算法的结果是颇接近的。
区别:
1、LR是参数模型,SVM是非参数模型。
2、从目标函数来拘禁,区别在逻辑回归下的凡logistical
loss,SVM采用的是hinge
loss.这片个损失函数的目的都是增多对分类影响比较生之数据点的权重,减少及分类关系比小之数据点的权重。
3、SVM的拍卖措施是只考虑support
vectors,也就算是暨归类最相关的少数碰,去学分类器。而逻辑回归通过非线性映射,大大削弱多少了距分类平面较远之触发之权重,相对提升了和分类最相关的数据点的权重。
4、逻辑回归相对来说模型更简便易行,好掌握,特别是广泛线性分类时较便利。而SVM的理解与优化相对来说复杂一些,SVM转化为双双问题后,分类就待算和个别几乎独支持向量的去,这个以进行复杂核函数计算时优势非常明确,能够大大简化模型与计量。
5、logic 能做的
svm能做,但也许在准确率达到产生题目,svm能召开的logic有的召开不了。
来源:http://blog.csdn.net/timcompp/article/details/62237986

10.LR与线性回归之区别及联络

@nishizhen:个人感觉逻辑回归和线性回归第一都是广义的线性回归,其次经典线性模型的优化目标函数是极其小二乘,而逻辑回归则是似然函数,另外线性回归在周实数域范围外开展展望,敏感度一致,而分类范围,需要以[0,1]。逻辑回归就是相同种植减多少预测范围,将预计值限定为[0,1]内的同一种植回归模型,因而对当下好像题目来说,逻辑回归之鲁棒性比线性回归之亲善。
@乖乖癞皮狗:逻辑回归的范本质上是一个线性回归模型,逻辑回归都是盖线性回归为理论支撑之。但线性回归模型无法完成sigmoid的非线性形式,sigmoid可以轻松处理0/1分拣问题。

ca88手机版登录官网 4

发表评论

电子邮件地址不会被公开。 必填项已用*标注