BAT机器学习面试1000题体系

前言

2010~2015年,July博客整理过上千道微软等集团的面试题,侧重数据结构、算法、海量数据处理,详见:http://blog.csdn.net/column/details/ms100.html

强调两点:
即便本种类首要都是机械学习、深度学习有关的试题,并无任何项目标题,但不表示应聘机器学习或深度学习时面试官就只问那两项,虽是做多少或AI相关,基本的言语(比如Python)、编码coding能力、数据结构、算法、计算机连串布局、操作系统、几率计算基本都是搞IT必备,也无法不控制。对于数据结构和算法,一者,重点推荐前边说的微软面试100题连串;二者,多刷leetcode,看1000道题不如实际下手刷100道。

BAT机器学习面试1000题连串

1.请简要介绍下SVM

SVM,全称是support vector
machine,汉语名叫援助向量机。SVM是一个面向数据的归类算法,它的对象是为确定一个分类超平面,从而将分歧的多寡分隔开。
扩张:那里有篇作品详细介绍了SVM的法则、推导,《帮衬向量机通俗导论(掌握SVM的三层境界)》。别的,那里有个视频也是有关SVM的演绎:《纯白板手推SVM》

2.请简要介绍下tensorflow的总计图

@寒小阳:Tensorflow是一个经过总计图的样式来表明统计的编程系统,总结图也叫数据流图,可以把计算图看做是一种有向图,Tensorflow中的每一个总括都是总括图上的一个节点,而节点之间的边描述了总计之间的看重性关系。

ca88手机版登录官网 1

3.请问GBDT和XGBoost的不一致是如何?

@Xijun
LI:
xgboost类似于gbdt的优化版,不论是精度依然功效上都有了升迁。与gbdt比较,具体的长处有:1.损失函数是用泰勒展式二项逼近,而不是像gbdt里的就是一阶导数2.对树的布局进行了正则化约束,幸免模型过度复杂,下降了过拟合的可能3.节点差别的点子各异,gbdt是用的gini周详,xgboost是透过优化推导后的更加多详见:购并学习总括

4.在k-means或kNN,我们是用欧氏距离来计量如今的邻里之间的离开。为什么不用曼哈顿距离?

曼哈顿相距只总计水平或垂直距离,有维度的界定。另一方面,欧氏距离可用来其余空间的相距计算难点。因为,数据点可以存在于其余空间,欧氏距离是更实用的选项。
譬如:想象一下国际象棋棋盘,象或车所做的活动是由曼哈顿距离测算的,因为它们是在独家的档次和垂直方向做的移位。

5.百度2015校招机器学习笔试题

百度2015校招机器学习笔试题

6.简便说说特征工程

ca88手机版登录官网 2

上图来源:http://www.julyedu.com/video/play/18

7.关于LR

ca88手机版登录官网,@rickjin:把LR从头到脚都给讲三次。建模,现场数学推理,每种解法的规律,正则化,LR和maxent模型啥关系,lr为什么比线性回归好。有为数不少会背答案的人,问逻辑细节就糊涂了。原理都会?
那就问工程,并行化如何做,有三种并行化形式,读过什么样开源的落到实处。还会,那就准备收了吗,顺便逼问LR模型发展历史。

ca88手机版登录官网 3

其它,关于答案那篇小说可以做参考:

机械学习从入门到甩掉之逻辑回归

机械学习算法与Python实践之逻辑回归

8.overfitting怎么化解?
dropout、regularization、batch normalizatin
参考:
机械学习中预防过拟合方法

9.LR和SVM的关联与分裂

@朝阳短暂
联系:
1、LR和SVM都得以处理分类难题,且一般都用于拍卖线性二分拣难点(在立异的意况下得以拍卖多分类难题)
2、七个主意都足以扩展不一样的正则化项,如l1、l2等等。所以在很多试行中,二种算法的结果是很接近的。
区别:
1、LR是参数模型,SVM是非参数模型。
2、从目的函数来看,分歧在于逻辑回归采纳的是logistical
loss,SVM选用的是hinge
loss.那三个损失函数的目的都是充实对分类影响较大的数据点的权重,收缩与分类关系较小的数据点的权重。
3、SVM的拍卖方法是只考虑support
vectors,也就是和归类最相关的少数点,去上学分类器。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,绝对进步了与分类最相关的数据点的权重。
4、逻辑回归相对来说模型更简约,好领悟,尤其是周边线性分类时相比较便于。而SVM的敞亮和优化相对来说复杂一些,SVM转化为双双难点后,分类只要求总结与个别多少个支持向量的相距,这么些在展开复杂核函数总括时优势很引人侧目,可以大大简化模型和测算。
5、logic 能做的
svm能做,但可能在准确率上有难点,svm能做的logic有的做不了。
来源:http://blog.csdn.net/timcompp/article/details/62237986

10.LR与线性回归的分别与互换

@nishizhen:个人感觉逻辑回归和线性回归第一都是广义的线性回归,其次经典线性模型的优化目的函数是很小二乘,而逻辑回归则是似然函数,此外线性回归在整整实数域范围内展开前瞻,敏感度一致,而分类范围,需求在[0,1]。逻辑回归就是一种减小预测范围,将估计值限定为[0,1]间的一种回归模型,因此对于那类难点来说,逻辑回归的鲁棒性比线性回归的和谐。
@乖乖癞皮狗:逻辑回归的模子本质上是一个线性回归模型,逻辑回归都是以线性回归为辩解支撑的。但线性回归模型不可以形成sigmoid的非线性形式,sigmoid可以轻松处理0/1分拣难点。

ca88手机版登录官网 4

发表评论

电子邮件地址不会被公开。 必填项已用*标注